

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# Amazon EMR 릴리스에 대한 정보
<a name="emr-release-components"></a>

Amazon EMR 릴리스는 빅 데이터 에코시스템의 오픈 소스 애플리케이션입니다. 각 릴리스는 클러스터를 생성할 때 Amazon EMR을 설치하고 구성하도록 선택한 여러 빅 데이터 애플리케이션, 구성 요소 및 기능으로 구성됩니다. 애플리케이션은 하둡 에코시스템과 관련된 오픈 소스 프로젝트 [Apache BigTop](http://bigtop.apache.org/) 기반의 시스템을 사용하여 패키징됩니다. 이 안내서에서는 Amazon EMR 릴리스에 포함된 애플리케이션에 대한 정보를 제공합니다.

Amazon EMR을 시작하고 사용하는 방법에 대한 자세한 내용은 [Amazon EMR 관리 안내서](https://docs.aws.amazon.com/emr/latest/ManagementGuide/)를 참조하세요.

클러스터를 시작할 때 Amazon EMR의 여러 릴리스 중에서 선택할 수 있습니다. 이를 통해 호환성 요구 사항에 맞는 애플리케이션 버전을 테스트하고 사용할 수 있습니다. *릴리스 레이블*과 함께 릴리스 번호를 지정합니다. 릴리스 레이블은 `emr-x.x.x` 형식입니다. 예를 들어 `emr-7.12.0`입니다.

Amazon EMR 5.18.0부터 Amazon EMR 아티팩트 리포지토리를 사용하여 특정 Amazon EMR 릴리스 버전에서 사용할 수 있는 정확한 버전의 라이브러리와 종속 항목에 대해 작업 코드를 빌드할 수 있습니다. 자세한 내용은 [Amazon EMR 아티팩트 리포지토리를 사용하여 종속성 확인](emr-artifact-repository.md) 단원을 참조하십시오.

새로운 Amazon EMR 릴리스가 출시될 때 업데이트를 받으려면 [Amazon EMR 릴리스 정보에 대한 RSS 피드](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/amazon-emr-release-notes.rss)를 구독하세요.

Amazon EMR 7.x, 6.x 및 5.x 시리즈의 애플리케이션 버전, 릴리스 정보, 구성 요소 및 구성 분류를 포함한 **최신 릴리스** 세부 정보:
+ [Amazon EMR 릴리스 7.12.0](emr-7120-release.md)
+ [Amazon EMR 릴리스 6.15.0](emr-6150-release.md)
+ [Amazon EMR 릴리스 5.36.2](emr-5362-release.md)

**참고**  
새 Amazon EMR 릴리스는 최초 릴리스 날짜에 첫 번째 리전부터 시작하여 일정 기간에 걸쳐 여러 리전에 사용 가능해집니다. 이 기간에는 사용자 리전에서 최신 릴리스 버전이 제공되지 않을 수도 있습니다.

최신 Amazon EMR 릴리스에 대한 **릴리스 정보** 및 모든 릴리스 기록:
+ [새로운 기능](emr-whatsnew.md)
+ [Amazon EMR 릴리스 정보 아카이브](emr-whatsnew-history.md)

각 Amazon EMR 릴리스에서 **애플리케이션 버전의 전체 기록**:
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)

**각 Amazon EMR 릴리스의 세부 정보** 및 릴리스 시리즈별 차이(해당하는 경우):
+ [Amazon EMR 7.x 릴리스 버전](emr-release-7x.md)
+ [Amazon EMR 6.x 릴리스 버전](emr-release-6x.md)
+ [Amazon EMR 5.x 릴리스 버전](emr-release-5x.md)
+ [Amazon EMR 4.x 릴리스 버전](emr-release-4x.md)
+ [Amazon EMR 2.x 및 3.x AMI 버전](emr-release-3x.md)

# Amazon EMR 표준 지원
<a name="emr-standard-support"></a>

## Amazon EMR 릴리스 이해
<a name="emr-standard-support-understanding"></a>

*Amazon EMR 릴리스*는 EC2, EKS 또는 Serverless 플랫폼에서 오픈 소스 애플리케이션을 실행하는 데 필요한 소프트웨어를 제공하는 도구입니다. Amazon EMR 릴리스는 *런타임 환경*, *코어 엔진* 및 *추가 항목*과 같은 세 부분으로 구성됩니다.
+ **런타임 환경** - 런타임 환경에는 클러스터 또는 컨테이너를 시작할 때 Amazon Machine Image(AMI) 또는 기타 컨테이너 이미지의 일부로 포함된 운영 체제가 포함됩니다(예: Amazon Linux 2023). 또한 Amazon Corretto JDK와 같은 언어 런타임과 이미지가 설치하는 기타 관련 도구도 포함됩니다.
+ **코어 엔진** - 여기에는 Apache Hive와 같은 코어 오픈 소스 소프트웨어와 Apache Iceberg와 같은 오픈 테이블 형식이 포함됩니다.
+ **추가 항목** - 여기에는 Apache Pig와 같은 오픈 소스 소프트웨어, `mariadb-connector-java`와 같은 Python 패키지, 편의 라이브러리가 포함됩니다.

선택한 Amazon EMR 릴리스 버전은 이러한 모든 구성 요소를 새 버전의 Amazon Linux(AL) 기반 Amazon Machine Images(AMI) 또는 컨테이너 이미지로 번들링합니다. Amazon EMR은 클러스터, EKS 컨테이너 또는 서버리스 애플리케이션의 모든 노드에 대해 동일한 AL 버전을 유지 관리합니다. Amazon EMR은 Amazon Linux에서 릴리스한 후 90일 이내에 최신 *런타임 환경*을 가져오고 업스트림 릴리스 후 90일 이내에 새로운 오픈 소스 버전의 *코어 엔진*을 확보하는 것을 목표로 합니다. 필요에 따라 *추가 항목*이 릴리스됩니다. 각 Amazon EMR 릴리스에 대한 릴리스 정보에서 소프트웨어 목록을 찾을 수 있습니다.

## 릴리스 버전 관리
<a name="emr-standard-support-versioning"></a>

각 릴리스의 변경 범위를 이해하는 데 도움이 되도록 Amazon EMR은 시맨틱 버전 관리를 사용합니다. 시맨틱 버전 관리는 `<major>.<minor>.<patch>` 형식을 따릅니다. 예를 들어, 7.0.0 릴리스를 고려합니다.

첫 번째 자리는 메이저 버전 릴리스 또는 **메이저 릴리스**를 나타냅니다. 메이저 릴리스는 일반적으로 역호환되지 않는 런타임 환경 또는 코어 엔진에 대한 상당한 변경 사항, 개선 사항 및 새로운 기능을 제공합니다. 예를 들어, 7.x 메이저 릴리스는 기본값으로 Amazon Corretto 17 JDK와 함께 Amazon Linux 2023을 사용합니다. 따라서 릴리스에는 기본값으로 Amazon Corretto 8 JDK를 사용하고 Amazon Linux 2에서 제공하는 6.x 메이저 릴리스와 비교했을 때 몇 가지 혁신적인 변경 사항이 포함되어 있습니다.

두 번째 숫자는 마이너 버전 릴리스 또는 **마이너 릴리스**를 나타냅니다. 마이너 릴리스는 코어 엔진 및 추가 항목, 새 기능에 대한 증분 변경 사항, 개선 사항 및 기능을 포함하는 역호환되지 않는 릴리스입니다. 예를 들어, 6.15는 6.11.1과 비교했을 때 Apache Spark 3.3.2와 함께 제공되는 Apache Spark 3.4.1을 사용합니다.

세 번째 숫자는 패치 버전 릴리스 또는 **패치 릴리스**를 나타냅니다. 패치 릴리스는 *코어 엔진* 및 *추가 항목*에 대한 수정 사항 및 패치 업데이트를 포함하는 역호환되는 릴리스이지만, 새로운 기능이나 OSS 버전 업그레이드를 포함하지 않습니다. 예를 들어, 6.11.1 및 6.11.0 모두 동일한 Apache Spark 3.3.2 OSS 버전을 포함합니다. 6.6.x부터 최신 패치 릴리스는 사용 가능한 최신 *런타임 환경* 패치를 제공합니다. *런타임 환경*은 Amazon EMR의 패치 릴리스에 영향을 주지 않습니다. 예를 들어, 6.11.1은 2023년 12월 19일부터 2024년 1월 10일까지 AL 버전 2.0.20240109.0으로 시작되었지만, 2024년 1월 11일부터 AL 버전 2.0.20240124.0으로 시작됩니다. 일부 Amazon EMR on EKS 릴리스를 사용하면 시맨틱 버전에 태그 또는 접미사를 추가하여 대체 기능을 제공할 수 있습니다. 예를 들어, Amazon EMR on EKS의 `emr-6.15.0-latest` 릴리스는 Amazon Corretto 8 JDK 지원 릴리스 버전을 시작하는 반면, Amazon EMR on EKS의 `emr-6.15.0-java17-latest` 릴리스는 Amazon Corretto 17 JDK 지원 릴리스 버전을 시작할 수 있습니다.

## 지원 정책
<a name="emr-stadard-support-policy"></a>

**소개**

Amazon EMR은 최소 90일마다 1회 새 마이너 릴리스를 발행하고 릴리스 날짜로부터 24개월 동안 마이너 릴리스에 대한 지원을 제공하는 것을 목표로 합니다. 이 지원은 *런타임 환경* 및 *코어 엔진*과 관련 종속 항목을 포함합니다. 단, *추가 항목* 또는 관련 종속 항목은 포함하지 않습니다. *런타임 환경*에는 클러스터 및 애플리케이션을 시작, 중지 및 운영하는 데 필요한 독점 플랫폼 구성 요소 및 API도 포함되어 있습니다. 이 일관된 릴리스 일정은 예측 가능한 주기를 보장하므로 지원 및 보안을 제공하는 버전을 보다 편리하게 계획 및 테스트하고 해당 버전으로 전환할 수 있습니다.

**표준 지원에서 기대할 수 있는 사항**

표준 지원은 권장 구성에 따라 *런타임 환경* 및 *코어 엔진* 구성 요소에서 발생하는 문제에 대한 기술 지원 티켓에서 수정 사항을 제공합니다. 모든 수정 사항은 가용성에 따라 달라질 수 있습니다. 권장 구성은 [Amazon EMR 설명서](https://docs.aws.amazon.com/emr/)에서 제공하는 경우를 제외하고 Amazon EMR 릴리스에 있는 바이너리 및 구성에 대한 수정, 추가 또는 변경 없이 Amazon EMR을 사용하는 것입니다. Amazon EMR은 수정 사항을 확인한 후 90일 이내에 Amazon EMR 릴리스의 최신 패치, 마이너 또는 메이저 버전에 수정 사항을 배포합니다. Amazon EMR은 EC2 클러스터에서 새 EMR을 시작하거나, 새 Amazon EMR on EKS 컨테이너를 시작하거나, 새 EMR Serverless 작업을 트리거할 때 자동으로 수정 사항을 적용합니다. 추가 항목 구성 요소는 편의를 위해 제공되며 Amazon EMR은 *추가 항목*과 관련된 수정 사항을 제공하지 **않습니다**.

**Components**

표준 지원에는 운영 체제, 언어 런타임, Apache Hive 및 Apache Iceberg와 같은 코어 오픈 소스 소프트웨어 등의 *런타임 환경* 및 *코어 엔진* 구성 요소가 포함됩니다. [Amazon EMR 릴리스에 대한 정보](emr-release-components.md) 및 [Amazon Linux FAQ](https://aws.amazon.com/linux/amazon-linux-2023/faqs/)에서 각 릴리스에 대해 지원되는 구성 요소의 전체 목록을 확인할 수 있습니다.

다음 목록은 표준 지원에서 다양한 구성 요소 유형에 대해 제공하는 지원을 설명합니다.
+ **런타임 환경 구성 요소**: *런타임 환경* 구성 요소는 기술 지원 티켓에 대한 수정 사항을 수신합니다. 수정 사항은 (a) 중요한 버그, (b) 중요한 데이터 손상 문제, (c) 중요한 보안 문제로 분류됩니다. 적합한 경우 Amazon EMR은 *런타임 환경*에 대한 수정 사항을 이전 버전으로 백포트합니다. 오픈 소스 코에 엔진 구성 요소와의 운영 호환성을 위해 특정 *런타임 환경* 구성 요소는 고객 애플리케이션 중단을 방지하고자 특정 버전에 남아 있어야 합니다. 이러한 구성 요소의 경우 Amazon EMR은 수정 사항 가용성을 위해 업스트림 오픈 소스에 의존합니다. 오픈 소스에서 수정 사항을 사용할 수 있는 경우 Amazon EMR에서 수정 사항을 확인한 후 90일 이내에 안정적인 최신 버전을 제공합니다.
+ **코어 엔진 구성 요소**: *코어 엔진*은 각각 수백 개의 전이적 종속 라이브러리를 보유한 많은 오픈 소스 프로젝트에 대한 최신 버전을 제공합니다. 이러한 프로젝트를 관리하는 오픈 소스 커뮤니티는 문제와 알려진 일반적인 취약성 및 노출(CVE)을 해결하려고 자주 시도하지만 최신 버전에는 여전히 알려진 버그 및 CVE가 포함될 수 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR에서 확인한 후 90일 이내에 *코어 엔진* 구성 요소의 일부로 안정적인 최신 버전을 제공합니다. 경우에 따라 Amazon EMR은 *코어 엔진* 구성 요소 중 하나에 업스트림 오픈 소스보다 먼저 해결해야 하는 CVE에 대한 수정 사항을 제공할 수 있습니다. 또한 Amazon EMR은 권장 구성에 따라 오픈 소스에 추가된 기능에 대한 기술 지원 및 수정 사항도 제공합니다. *코어 엔진* 구성 요소에 대한 수정 사항을 이전 패치 또는 마이너 버전으로 백포트하지 않습니다.
+ **추가 구성 요소**: Amazon EMR은 *추가 항목* 구성 요소를 지원하지 **않습니다**. 추가 항목 구성 요소는 편의상 제공되는 오픈 소스 프로젝트이며 Amazon EMR은 이러한 구성 요소에서 발생하는 문제에 대한 수정 사항을 제공하지 않습니다. 모든 지원 요청 또는 수정 사항은 이러한 구성 요소를 지원하는 오픈 소스 커뮤니티를 통해 해결할 수 있습니다.

**표준 지원 수명 주기**

다음에서는 표준 지원 수명 주기의 마일스톤을 설명합니다.
+ **표준 지원**: Amazon EMR 릴리스는 릴리스 날짜로부터 24개월 이내에 표준 지원을 받을 자격이 주어집니다. 기술 지원 티켓을 생성하고 이러한 릴리스에서 발생하는 문제에 대한 업데이트를 예상할 수 있습니다.
+ **지원 종료**: 표준 지원이 종료된 후 Amazon EMR 릴리스는 12개월 동안 지원 종료(EoS) 단계에 들어갑니다. EoS 릴리스는 기술 지원을 받을 수 없으며 이러한 릴리스에서 실행되는 클러스터, 컨테이너 또는 작업에 대한 티켓을 생성할 수 없습니다. EoS 릴리스는 수정 사항, 패치 또는 업데이트를 수신하지 않습니다. EoS 릴리스는 콘솔에서 제거되지만, API 및 AWS CLI를 통해 계속 사용할 수 있습니다. 언제든지 EoS 릴리스에서 워크로드를 계속 실행할 수 있습니다. 최신 Amazon EMR 릴리스로 마이그레이션하여 보안 패치를 계속 받고, 기술 지원 자격을 유지하며, 필요한 경우 지원 티켓을 생성할 수 있도록 하는 것이 좋습니다.
+ **수명 종료**: 지원 종료(EoS) 기간 이후 릴리스는 수명 종료(EoL )로 간주됩니다. EoL 클러스터를 계속 실행할 수 있지만 Amazon EMR은 보안 및 운영 문제로 인해 사례별로 API 및 SDK에서 EoL 릴리스를 제거할 수 있는 권한을 보유합니다. 예외적인 경우 API 및 SDK에서 EoL 버전을 제거할 수 있으므로 최신 Amazon EMR 릴리스로 마이그레이션하는 것이 좋습니다.

**브리지 지원**

Amazon EMR은 2024년 7월 25일에 이 새로운 지원 정책을 발표했습니다. 이 정책에 따라 2022년 7월 24일 또는 그 이전에 릴리스된 Amazon EMR 버전이 이제 지원 종료 대상으로 지정됩니다. 그러나 최신 버전을 계획하고 마이그레이션할 수 있는 추가 시간을 제공하기 위해 Amazon EMR은 이 발표 전 2년 이내에 릴리스된 해당 이전 버전에 대해 표준 지원과 동등한 브리지 지원을 제공합니다.

2024년 7월 25일 이후에는 릴리스 정보에서 현재 상태 및 지원 일정을 참조할 수 있습니다.

다음 표는 2024년 7월 25일 정책 발표 당시, 기존 Amazon EMR 릴리스에 대한 지원 상태를 보여줍니다.


**릴리스 및 지원 기간**  

| Amazon EMR 릴리스 버전 | 초기 릴리스 날짜 | 표준 지원 종료 날짜 | 표준 종료 시작 날짜 | 수명 종료 시작 날짜 | 
| --- | --- | --- | --- | --- | 
|  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-standard-support.html)  | 2013년 1월 1일\$12024년 7월 25일 | 2026년 7월 31일까지 브리지 지원 | 2026년 8월 1일 | 2027년 8월 1일 | 

**참고**  
모든 적격 릴리스에 대해 브리지 지원 날짜가 2026년 7월 31일로 연장되었습니다.

Apache Spark 업그레이드 에이전트를 사용하여 EMR on EC2 및 EMR Serverless의 Apache Spark 기존 애플리케이션을 이전 EMR 버전에서 최신 EMR 버전으로 업그레이드할 수 있습니다. 자세한 내용은 [Amazon EMR용 Apache Spark 업그레이드 에이전트란?](spark-upgrades.md)를 참조하세요.

## 고려 사항
<a name="emr-standard-support-considerations"></a>

표준 지원은 Amazon EMR을 사용할 수 있는 모든 리전의 모든 Amazon EMR 배포 모델(EMR on EC2, Amazon EMR on EKS, EMR Serverless)에 대해 추가 비용 없이 제공됩니다. 권장 구성으로 실행되는 클러스터는 정책에 설명된 대로 자동으로 지원을 받을 수 있으므로, 지원을 활성화하기 위해 추가 작업을 수행하지 않아도 됩니다.
+ 표준 지원에서는 Amazon EMR 클러스터에 필요한 구성 요소만 지원합니다. Amazon EMR은 *코어 엔진* 오픈 소스 구성 요소가 EoL 업스트림에 도달하거나 종속 항목에 대한 보안 업데이트를 더 이상 사용할 수 없는 경우 보안 패치 및 수정 사항 가용성을 보장할 수 없습니다. *추가 항목* 설치를 옵트인할 수 있지만 Amazon EMR은 추가 항목 또는 해당 종속 항목을 지원하지 않습니다. 예를 들어, 사용자 지정 AMI에서 서드파티 애플리케이션을 설치하여 클러스터의 보안을 강화하거나, 부트스트랩 작업 스크립트를 사용하여 추가 구성 요소를 설치하거나 객체를 복사하거나, 클러스터에 SSH로 연결하여 기본 패키지 버전을 업그레이드할 수 있습니다. Amazon EMR은 이러한 구성 요소를 지원하지 않습니다. 표준 지원은 고객이 제공한 부트스트랩 작업, 패키지, 라이브러리, 사용자 지정 코드 및 사용자의 편의를 위해 설치하도록 Amazon EMR을 구성할 수 있는 기존 보유 사용자 지정 애플리케이션에 적용되지 않습니다.
+ 실행 중인 Amazon EMR 릴리스에 관계없이 기존 클러스터는 영향을 받지 않습니다. 중단 없이 기존 클러스터를 계속 실행할 수 있습니다. 또한 새 클러스터를 계속 시작하고 기존 릴리스 및 새 릴리스에서 작업을 실행할 수 있습니다. 정책이 발효되는 시점의 모든 기존 릴리스 및 새 릴리스는 Amazon EMR 릴리스 버전의 최초 릴리스 날짜로부터 24개월 동안 표준 지원의 적용을 받습니다. Amazon EMR은 정책의 초기 발표 중에 브리지 지원을 제공합니다. 중단 없는 지원을 받으려면 애플리케이션을 테스트하고 최신 Amazon EMR 릴리스로 즉시 업그레이드하는 것이 좋습니다.
+ Amazon EMR은 기존 릴리스 또는 클러스터의 표준 지원 구성 요소를 변경하지 않습니다. 그러나 Amazon EMR은 사례별로 업스트림 수명 종료를 고려하고, 새 릴리스에서 이러한 구성 요소를 제거하거나, 예외적인 경우 기존 릴리스를 지원 종료(EoS) 또는 수명 종료(EoL) 상태로 전환할 수 있는 권한을 보유합니다. 사용 가능한 채널을 통해 제거 사항이 있으면 알려 드립니다.
+ 새 리전이 시작되면 Amazon EMR은 표준 지원에 따라 Amazon EMR 릴리스 버전만 지원하며, 새 리전이 정식 출시되는 날짜로부터 6개월 이내에 릴리스됩니다.
+ Amazon EMR은 기존 클러스터를 최신 버전으로 자동 업데이트하지 않습니다. 그러나 원하는 경우 새 클러스터를 최신 패치 버전으로 업데이트하도록 선택할 수 있습니다.
+ 지원되지 않는 Amazon EMR 사용 비용은 AWS 청구서에 포함됩니다. 지원되지 않는 방식으로 Amazon EMR을 사용하더라도 해당 사용과 관련된 비용은 여전히 전체 AWS 소비의 일부이며 지원 요금 계산에 포함됩니다.

자세한 내용은 [AWS 개발자 지원](https://aws.amazon.com/premiumsupport/)에 문의하세요.

# Amazon EMR용 Apache Spark 업그레이드 에이전트란?
<a name="spark-upgrades"></a>

## 소개
<a name="emr-spark-upgrade-agent-intro"></a>

Amazon EMR용 Apache Spark 업그레이드 에이전트는 EMR 애플리케이션의 Apache Spark 버전 업그레이드를 가속화하는 대화형 AI 기능입니다. 기존 Spark 업그레이드에서는 API 변경 사항을 분석하고, 종속성 충돌을 해결하고, 기능적 정확성을 검증하기 위해 몇 개월의 엔지니어링 노력이 필요합니다. 에이전트는 자연어 프롬프트, 자동 코드 변환 및 데이터 품질 검증을 통해 업그레이드 프로세스를 간소화합니다.

에이전트를 사용하여 Amazon EMR on EC2 및 Amazon EMR Serverless에서 실행되는 PySpark 및 Scala 애플리케이션을 업그레이드할 수 있습니다. 에이전트는 코드를 분석하고, 필요한 변경 사항을 식별하고, 자동화된 변환을 수행하는 동시에 모든 수정 사항에 대한 승인 제어를 유지합니다.

**참고**  
Apache Spark 업그레이드 에이전트는 Amazon EMR의 일부로 추가 비용 없이 사용할 수 있습니다. 검증 작업 실행 중에 사용되는 기본 Amazon EMR 리소스에 대해서만 비용을 지불합니다.

## 아키텍처 개요
<a name="emr-spark-upgrade-agent-architecture"></a>

업그레이드 에이전트에는 상호 작용을 위한 개발 환경의 MCP 호환 AI Assistant, 클라이언트와 [ MCP 서버 간의 보안 통신을 처리하는 용 MCP 프록시 AWS](https://github.com/aws/mcp-proxy-for-aws), Amazon EMR용 특수 Spark 업그레이드 도구를 제공하는 Amazon SageMaker Unified Studio 관리형 MCP 서버(평가판)의 세 가지 주요 구성 요소가 있습니다. 이 다이어그램은 AI 어시스턴트를 통해 Amazon SageMaker Unified Studio 관리형 MCP 서버와 상호 작용하는 방법을 보여줍니다.

![\[Apache Spark 업그레이드 에이전트\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/images/SparkUpgradeIntroduction.png)


AI 어시스턴트는 다음 단계에 따라 MCP 서버에서 제공하는 특수 도구를 사용하여 업그레이드를 오케스트레이션합니다.

1. **계획**: 에이전트가 프로젝트 구조를 분석하고 end-to-end Spark 업그레이드 프로세스를 안내하는 업그레이드 계획을 생성하거나 수정합니다.

1. **컴파일 및 빌드**: 에이전트가 빌드 환경 및 종속성을 업데이트하고, 프로젝트를 컴파일하고, 빌드 및 테스트 실패를 반복적으로 수정합니다.

1. **Spark 코드 편집 도구**: 에이전트는 대상 코드 업데이트를 적용하여 Spark 버전 비호환성을 해결하고 빌드 타임 및 런타임 오류를 모두 수정합니다.

1. **실행 및 검증**: 에이전트가 원격 검증 작업을 EMR에 제출하고 실행 및 로그를 모니터링하며 런타임 및 데이터 품질 문제를 반복적으로 수정합니다.

1. **관찰성**: 에이전트는 EMR 관찰성 도구를 사용하여 업그레이드 진행 상황을 추적하고 사용자가 언제든지 업그레이드 분석 및 상태를 볼 수 있도록 합니다.

각 단계의 주요 도구 목록은 [Spark 업그레이드 도구 사용](emr-spark-upgrade-agent-tools.md) 섹션을 참조하세요.

**Topics**
+ [소개](#emr-spark-upgrade-agent-intro)
+ [아키텍처 개요](#emr-spark-upgrade-agent-architecture)
+ [에이전트 업그레이드 설정](emr-spark-upgrade-agent-setup.md)
+ [업그레이드 에이전트 사용](emr-spark-upgrade-agent-using.md)
+ [기능 및 기능](emr-spark-upgrade-agent-features.md)
+ [문제 해결 및 Q&A](emr-spark-upgrade-agent-troubleshooting.md)
+ [Spark 업그레이드 에이전트 워크플로 세부 정보](emr-spark-upgrade-agent-workflow-details.md)
+ [데이터 품질 검증 활성화](emr-spark-upgrade-agent-data-quality-validation.md)
+ [Spark 업그레이드 에이전트에 대한 프롬프트 예제](emr-spark-upgrade-agent-prompt-examples.md)
+ [기존 애플리케이션에서 대상 EMR 클러스터/EMR-S 애플리케이션 생성](emr-spark-upgrade-agent-target-cluster.md)
+ [IAM 역할 설정](emr-spark-upgrade-agent-iam-role.md)
+ [Amazon SageMaker Unified Studio MCP에 대한 인터페이스 VPC 엔드포인트 구성](spark-upgrade-agent-vpc-endpoints.md)
+ [Spark 업그레이드 도구 사용](emr-spark-upgrade-agent-tools.md)
+ [Apache Spark 업그레이드 에이전트에 대한 리전 간 처리](emr-spark-upgrade-agent-cross-region.md)
+ [를 사용하여 Amazon SageMaker Unified Studio MCP 호출 로깅 AWS CloudTrail](spark-upgrade-cloudtrail-integration.md)
+ [Apache Spark 에이전트에 대한 서비스 개선 사항](emr-spark-agent-service-improvements.md)

# 에이전트 업그레이드 설정
<a name="emr-spark-upgrade-agent-setup"></a>

**참고**  
Apache Spark 업그레이드 에이전트는 리전 간 추론을 사용하여 자연어 요청을 처리하고 응답을 생성합니다. 자세한 내용은의이 페이지를 참조하세요[Apache Spark 업그레이드 에이전트에 대한 리전 간 처리](emr-spark-upgrade-agent-cross-region.md). Amazon SageMaker Unified Studio MCP 서버는 미리 보기 중이며 변경될 수 있습니다.

## 사전 조건
<a name="spark-upgrade-agent-prerequisites"></a>

Kiro CLI와의 통합을 위한 설정 프로세스를 시작하기 전에 워크스테이션에 다음이 설치되어 있는지 확인합니다.
+  [AWS CLI 설치 ](https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html) 
+  [ Python 3.10 이상 설치 ](https://www.python.org/downloads/release/python-3100/) 
+  용 [ MCP 프록시 AWS](https://github.com/aws/mcp-proxy-for-aws?tab=readme-ov-file)용[`uv` 패키지 관리자 설치 ](https://docs.astral.sh/uv/getting-started/installation/) 
+  [ Kiro CLI 설치 ](https://kiro.dev/docs/cli/) 
+ AWS 구성된 로컬 자격 증명([AWS CLI](https://docs.aws.amazon.com/cli/latest/userguide/cli-chap-configure.html), 환경 변수 또는 IAM 역할을 통해) - EMR 검증 작업 실행을 위해 업그레이드된 작업 아티팩트 업로드와 같은 로컬 작업에 사용됩니다.

## 리소스 설정
<a name="spark-upgrade-agent-setup-resources"></a>

 CloudFormation 템플릿을 사용하여 MCP 서버의 리소스를 설정할 수 있습니다. 이 템플릿은 요구 사항에 맞게 수정해야 하는 샘플입니다. 템플릿은 업그레이드 프로세스를 위해 다음과 같은 리소스를 생성합니다.
+ MCP Server를 호출할 수 있는 권한과 기본 EMR 플랫폼의 업그레이드 프로세스에 필요한 권한이 있는 IAM 역할입니다.
+ Amazon S3 암호화를 위한 업그레이드 아티팩트 및 선택적 KMS 키를 업로드하는 데 사용되는 Amazon S3 스테이징 버킷입니다.

다음 표에서 **스택 시작** 버튼 중 하나를 선택하십시오. 그러면 해당 리전의 CloudFormation 콘솔에서 스택이 시작됩니다.


| 리전 | 시작 | 
| --- | --- | 
| 미국 동부(버지니아 북부) |  [https://console.aws.amazon.com/cloudformation/home?region=us-east-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-east-1.s3.us-east-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=us-east-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-east-1.s3.us-east-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 미국 동부(오하이오) |  [https://console.aws.amazon.com/cloudformation/home?region=us-east-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-east-2.s3.us-east-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=us-east-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-east-2.s3.us-east-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 미국 서부(오리곤) |  [https://console.aws.amazon.com/cloudformation/home?region=us-west-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-west-2.s3.us-west-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=us-west-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-us-west-2.s3.us-west-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 유럽(아일랜드) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-west-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-1.s3.eu-west-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-west-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-1.s3.eu-west-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 아시아 태평양(도쿄) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-northeast-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-northeast-1.s3.ap-northeast-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-northeast-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-northeast-1.s3.ap-northeast-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 아시아 태평양(싱가포르) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-southeast-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-southeast-1.s3.ap-southeast-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-southeast-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-southeast-1.s3.ap-southeast-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 아시아 태평양(시드니) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-southeast-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-southeast-2.s3.ap-southeast-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-southeast-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-southeast-2.s3.ap-southeast-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 캐나다(중부) |  [https://console.aws.amazon.com/cloudformation/home?region=ca-central-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ca-central-1.s3.ca-central-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ca-central-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ca-central-1.s3.ca-central-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 남아메리카(상파울루) |  [https://console.aws.amazon.com/cloudformation/home?region=sa-east-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-sa-east-1.s3.sa-east-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=sa-east-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-sa-east-1.s3.sa-east-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 유럽(프랑크푸르트) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-central-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-central-1.s3.eu-central-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-central-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-central-1.s3.eu-central-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 유럽(스톡홀름) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-north-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-north-1.s3.eu-north-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-north-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-north-1.s3.eu-north-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 유럽(런던) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-west-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-2.s3.eu-west-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-west-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-2.s3.eu-west-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 유럽(파리) |  [https://console.aws.amazon.com/cloudformation/home?region=eu-west-3#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-3.s3.eu-west-3.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=eu-west-3#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-eu-west-3.s3.eu-west-3.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 아시아 태평양(서울) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-northeast-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-northeast-2.s3.ap-northeast-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-northeast-2#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-northeast-2.s3.ap-northeast-2.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 
| 아시아 태평양(뭄바이) |  [https://console.aws.amazon.com/cloudformation/home?region=ap-south-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-south-1.s3.ap-south-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml](https://console.aws.amazon.com/cloudformation/home?region=ap-south-1#/stacks/new?stackName=spark-upgrade-mcp-setup&templateURL=https%3A%2F%2Fsmus-mcp-cfn-template-prod-ap-south-1.s3.ap-south-1.amazonaws.com/cloudformation/spark-upgrade-mcp-setup.yaml)  | 

**스택 세부 정보 지정** 페이지로 이동하여 **스택 이름을** 입력합니다. **파라미터(Parameters)** 아래에 추가 정보를 입력합니다. 다음 정보를 제공하고 스택 생성을 진행합니다.
+ **SparkUpgradeIAMRoleName** - Spark 업그레이드 프로세스에 사용할 IAM 역할의 이름
+ **EnableEMREC2** - EMR-EC2 업그레이드 권한 활성화(기본값: true)
+ **EnableEMRServerless** - EMR-Serverless 업그레이드 권한 활성화(기본값: true)
+ **StagingBucketPath** - 스테이징 아티팩트를 위한 Amazon S3 경로(예: s3://my-bucket/spark-upgrade 또는 my-bucket/spark-upgrade). 새 버킷을 자동 생성하려면 비워 둡니다.
+ **UseS3Encryption** - Amazon S3 스테이징 버킷에 대해 KMS 암호화 활성화(기본값: false, 기본 S3 암호화 대신 KMS 암호화를 사용하려면 true로 설정)
+ **S3KmsKeyArn** - (선택 사항) Amazon S3 버킷 암호화를 위한 기존 KMS 키의 ARN입니다. UseS3Encryption이 true이고 KMS 키가 있는 기존 버킷이 있는 경우에만 사용됩니다.
+ **CloudWatchKmsKeyArn** - (선택 사항) CloudWatch Logs 암호화를 위한 기존 KMS 키의 ARN(EMR Serverless만 해당, 기본 암호화를 위해 비워둠)
+ **EMRServerlessS3LogPath** - (선택 사항) EMR-Serverless 애플리케이션 로그가 저장되는 S3 경로입니다(예: s3://my-bucket/emr-serverless-logs 또는 my-bucket/emr-serverless-logs). 제공되면는 분석을 위해 IAM 역할에 이러한 로그에 대한 읽기 액세스 권한을 부여합니다. EnableEMRServerless가 true인 경우에만 사용됩니다.
+ **ExecutionRoleToGrantS3Access** - (선택 사항) Amazon S3 스테이징 버킷 액세스 권한을 부여하는 기존 EMR-EC2/EMR-Serverless 실행 역할의 IAM 역할 이름 또는 ARN입니다. 새 스테이징 버킷이 생성될 때만 적용됩니다. EMR 작업 실행 역할에 스테이징 버킷에 대한 액세스 권한을 부여하는 데 유용합니다. 경로가 있는 ARNs과 간단한 역할 이름을 모두 지원합니다.

[CloudFormation 템플릿을](https://github.com/aws-samples/aws-emr-utilities/blob/03c20fece616de23ec0ea5389f0113a5bc65fc3a/utilities/apache-spark-agents/spark-upgrade-agent-cloudformation/spark-upgrade-mcp-setup.yaml) 다운로드 및 검토하고, 위의 옵션을 지정하고, CloudFormation CLI 명령을 사용하여 템플릿을 직접 시작할 수도 있습니다. 아래 예제를 참조하세요.

```
# deploy the stack with CloudFormation CLI commands
aws cloudformation deploy \
  --template-file spark-upgrade-mcp-setup.yaml \
  --stack-name spark-mcp-setup \
  --region <your mcp server launch region> \
  --capabilities CAPABILITY_NAMED_IAM \
  --parameter-overrides \
    ExecutionRoleToGrantS3Access=<your EMR or EMR Serverless job execution role>


# retrieve the 1-line instruction to set the local environment variables, which will be used for the following MCP server configuration
aws cloudformation describe-stacks \
  --stack-name spark-mcp-setup \
  --region <your mcp server launch region> \
  --query "Stacks[0].Outputs[?OutputKey=='ExportCommand'].OutputValue" \
  --output text
```

출력 탭을 열고(또는 위의 CloudFormation describe-stacks CLI 명령에서 검색) 1줄 명령을 복사한 `ExportCommand`다음 로컬 환경에서 실행합니다. 1줄 지침의 예:

```
export SMUS_MCP_REGION=<your mcp server launch region> && export IAM_ROLE=arn:aws:iam::111122223333:role/spark-upgrade-role-xxxxxx && export STAGING_BUCKET_PATH=<your staging bucket path>
```

그런 다음 로컬에서 다음 명령을 실행하여 IAM 프로파일 및 MCP 서버 구성을 설정합니다.

```
# Step 1: Configure AWS CLI Profile  
aws configure set profile.spark-upgrade-profile.role_arn ${IAM_ROLE}  
aws configure set profile.spark-upgrade-profile.source_profile <AWS CLI Profile to assume the IAM role - ex: default>  
aws configure set profile.spark-upgrade-profile.region ${SMUS_MCP_REGION}  
  
# Step 2: if you are using Kiro CLI, use the following command to add the MCP configuration  
kiro-cli-chat mcp add \  
    --name "spark-upgrade" \  
    --command "uvx" \  
    --args "[\"mcp-proxy-for-aws@latest\",\"https://sagemaker-unified-studio-mcp.${SMUS_MCP_REGION}.api.aws/spark-upgrade/mcp\", \"--service\", \"sagemaker-unified-studio-mcp\", \"--profile\", \"spark-upgrade-profile\", \"--region\", \"${SMUS_MCP_REGION}\", \"--read-timeout\", \"180\"]" \  
    --timeout 180000\  
    --scope global
```

MCP 서버 구성을 `~/.kiro/settings/mcp.json` 포함하도록 아래와 같이 업데이트해야 합니다.

```
{  
  "mcpServers": {  
    "spark-upgrade": {  
      "type": "stdio",  
      "command": "uvx",  
      "args": [  
        "mcp-proxy-for-aws@latest",  
        "https://sagemaker-unified-studio-mcp.us-east-1.api.aws/spark-upgrade/mcp",  
        "--service",  
        "sagemaker-unified-studio-mcp",  
        "--profile",  
        "spark-upgrade-profile",  
        "--region",  
        "us-east-1",  
        "--read-timeout",  
        "180"  
      ],  
      "timeout": 180000,  
      "disabled": false  
    }  
  }  
}
```

Kiro, Cline 및 GitHub CoPilot과 같은 다양한 MCP 클라이언트에 대한 구성 지침은 섹션을 참조[업그레이드 에이전트 사용](emr-spark-upgrade-agent-using.md)하세요.

# 업그레이드 에이전트 사용
<a name="emr-spark-upgrade-agent-using"></a>

## 지원되는 배포 모드
<a name="emr-spark-upgrade-agent-deployment-modes"></a>

Amazon EMR용 Apache Spark 업그레이드 에이전트는 빌드 파일 업그레이드, 스크립트/종속성 업그레이드, 대상 EMR 클러스터 또는 EMR Serverless 애플리케이션을 사용한 로컬 테스트 및 검증, 데이터 품질 검증을 포함한 end-to-end Spark 애플리케이션 업그레이드 경험을 위해 다음과 같은 두 가지 배포 모드를 지원합니다.
+ EMR on EC2
+ EMR Serverless

자세한 기능, 용량 및 제한 사항을 알아보려면 [기능 및 기능](emr-spark-upgrade-agent-features.md) 섹션을 참조하세요.

## 지원되는 인터페이스
<a name="emr-spark-upgrade-agent-supported-interfaces"></a>

### Amazon SageMaker Unified Studio VS 코드 편집기 스페이스와 통합
<a name="emr-spark-upgrade-agent-sagemaker-studio"></a>

Amazon SageMaker Unified Studio VS Code Editor Spaces에서 아래 스크린샷을 따라 업그레이드 에이전트 설정에 설명된 대로 IAM 프로파일 및 MCP 구성을 구성할 수 있습니다.

![\[Apache Spark 업그레이드 에이전트\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/images/SparkUpgradeVSCodeEditor.png)


SMUS VS 코드 편집기를 사용한 EMR on EC2 업그레이드 경험에 대한 데모입니다. 에이전트에게 Spark 업그레이드 프로세스 시작을 요청하는 간단한 프롬프트로 시작합니다.

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-EC2 Cluster <cluster-id> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts.   
Use spark-upgrade-profile for AWS CLI operations.
```

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/Hk4_GPvYeqI/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/Hk4_GPvYeqI)


### Kiro CLI(QCLI)와 통합
<a name="emr-spark-upgrade-agent-kiro-cli"></a>

Kiro CLI 또는 AI Assistant를 시작하고 업그레이드 에이전트에 대해 로드된 도구를 확인합니다.

```
...  
spark-upgrade (MCP):   
- check_and_update_build_environment     * not trusted  
- check_and_update_python_environment    * not trusted  
- check_job_status                       * not trusted  
- compile_and_build_project              * not trusted  
...
```

Kiro CLI를 사용한 EMR Serverless 업그레이드 경험에 대한 데모입니다. 다음 프롬프트를 사용하여 업그레이드 프로세스를 시작할 수 있습니다.

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-Serverless Applicaion <application-id> and execution role <your EMR Serverless job execution role> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts.
```

[![AWS Videos](http://img.youtube.com/vi/https://www.youtube.com/embed/Kw8E2wWv4uQ/0.jpg)](http://www.youtube.com/watch?v=https://www.youtube.com/embed/Kw8E2wWv4uQ)


### 다른 IDEs와 통합
<a name="emr-spark-upgrade-agent-other-ides"></a>

다른 IDEs에서 [구성을](emr-spark-upgrade-agent-setup.md#spark-upgrade-agent-setup-resources) 사용하여 관리형 MCP 서버에 연결할 수도 있습니다.
+ **Cline과 통합** - MCP 서버를 Cline과 함께 사용하려면를 수정`cline_mcp_settings.json`하고 위의 구성을 추가합니다. MCP 구성을 관리하는 방법에 대한 자세한 내용은 [Cline의 설명서를](https://docs.cline.bot/mcp/configuring-mcp-servers) 참조하세요.
+ **Claude 코드와 통합** Claude 코드와 함께 MCP 서버를 사용하려면 MCP 구성을 포함하도록 구성 파일을 수정합니다. 파일 경로는 운영 체제에 따라 다릅니다. 자세한 설정은 [https://code.claude.com/docs/en/mcp](https://code.claude.com/docs/en/mcp) 참조하십시오.
+ **GitHub Copilot과의 통합** - GitHub Copilot과 함께 MCP 서버를 사용하려면 [ https://docs.github.com/en/copilot/how-tos/provide-context/use-mcp/extend-copilot-chat-with-mcp](https://docs.github.com/en/copilot/how-tos/provide-context/use-mcp/extend-copilot-chat-with-mcp) 지침에 따라 해당 구성 파일을 수정하고 각 IDE에 따른 지침에 따라 설정을 활성화합니다.

## 대상 버전에 대한 EMR 클러스터 또는 EMR Serverless 애플리케이션 설정
<a name="emr-spark-upgrade-agent-setup-target"></a>

업그레이드된 애플리케이션에 사용할 예상 Spark 버전으로 EMR 클러스터 또는 EMR Serverless 애플리케이션을 생성합니다. 대상 EMR 클러스터 또는 EMR-S 애플리케이션은 Spark 애플리케이션 아티팩트가 업그레이드된 후 검증 작업 실행을 제출하여 성공적인 업그레이드를 확인하거나 검증 중에 발생한 추가 오류를 수정하는 데 사용됩니다. 대상 EMR 클러스터 또는 EMR Serverless 애플리케이션이 이미 있는 경우 기존 클러스터를 참조하고이 단계를 건너뛸 수 있습니다. 비프로덕션 개발자 계정을 사용하고, Spark 업그레이드를 사용하는 검증에 대해 프로덕션 데이터를 나타내지만 크기가 더 작은 샘플 모의 데이터세트를 선택합니다. 기존 클러스터에서 대상 EMR 클러스터 또는 EMR Serverless 애플리케이션을 생성하는 지침은이 페이지를 참조하세요[기존 애플리케이션에서 대상 EMR 클러스터/EMR-S 애플리케이션 생성](emr-spark-upgrade-agent-target-cluster.md).

# 기능 및 기능
<a name="emr-spark-upgrade-agent-features"></a>

## 지원되는 기술
<a name="emr-spark-upgrade-agent-supported-technologies"></a>
+ **언어**: Python 및 Scala 애플리케이션
+ **빌드 시스템**: Scala 프로젝트용 Maven 및 SBT, requirements.txt, Pipfile 및 Python 프로젝트용 Setuptools
+ **대상 플랫폼**: Amazon EMR 및 EMR Serverless
+ **지원되는 버전**: 버전 2.4에서 3.5로의 Apache Spark 업그레이드를 지원합니다. 해당 배포 모드 매핑은 다음과 같습니다.
  + **EMR-EC2의 경우**
    + **소스 버전:** EMR 5.20.0 이상
    + **대상 버전:** EMR 7.12.0 이하, EMR 5.20.0 이상이어야 함
  + **EMR Serverless의 경우**
    + **소스 버전:** EMR Serverless 6.6.0 이상
    + **대상 버전:** EMR Serverless 7.12.0 이하

## 업그레이드 대상
<a name="emr-spark-upgrade-agent-what-we-upgrade"></a>

업그레이드 에이전트는 포괄적인 Spark 애플리케이션 업그레이드를 제공합니다.
+ **빌드 구성**: 종속성 관리 파일(pom.xml, requirements.txt 등) 자동 업데이트
+ **소스 코드**: API 호환성 문제 및 더 이상 사용되지 않는 메서드 사용 수정
+ **테스트 코드**: 유닛 및 통합 테스트가 대상 Spark 버전과 함께 작동하는지 확인합니다.
+ **종속성**: 패키징된 종속성을 대상 EMR 버전과 호환되는 버전으로 업그레이드합니다.
+ **검증**: 대상 EMR 클러스터에서 애플리케이션을 컴파일하고 검증합니다.
+ **데이터 품질 분석**: 스키마 차이, 값 수준 통계 드리프트(min/max/mean) 및 집계 행 수 불일치를 감지하고 자세한 영향 보고를 제공합니다.

## 사용 가능한 리전
<a name="emr-spark-upgrade-agent-available-regions"></a>

Spark 업그레이드 에이전트는 다음 리전에서 사용할 수 있습니다.
+ **아시아 태평양**: 도쿄(ap-northeast-1), 서울(ap-northeast-2), 싱가포르(ap-southeast-1), 시드니(ap-southeast-2), 뭄바이(ap-south-1)
+ **북미**: 캐나다(ca-central-1)
+ **유럽**: 스톡홀름(eu-north-1), 아일랜드(eu-west-1), 런던(eu-west-2), 파리(eu-west-3), 프랑크푸르트(eu-central-1)
+ **남아메리카**: 상파울루(sa-east-1)
+ **미국**: 버지니아 북부(us-east-1), 오하이오(us-east-2), 오리건(us-west-2)

## 업그레이드 범위 및 사용자 요구 사항
<a name="emr-spark-upgrade-agent-scope-limitations"></a>
+ **클러스터 관리**: Spark 업그레이드 에이전트는 애플리케이션 코드 업그레이드에 중점을 둡니다. 새 버전의 대상 EMR 클러스터는 사용자가 생성하고 관리해야 합니다.
+ **부트스트랩 작업**: Spark 업그레이드 에이전트는 Spark 애플리케이션 코드 외부에서 사용자 지정 부트스트랩 스크립트를 업그레이드하지 않습니다. 사용자가 업그레이드해야 합니다.
+ **빌드 및 테스트 업그레이드**: 업그레이드 에이전트는 개발 환경에서 빌드를 수행하고 유닛 및 통합 테스트를 로컬에서 실행하여 애플리케이션이 대상 Spark 버전으로 성공적으로 컴파일되는지 확인합니다. 로컬 실행을 위한 Spark 애플리케이션 코드에 대한 제한(보안 정책, 리소스 제한, 네트워크 제한 또는 기업 지침)이 있는 경우 [ Amazon SageMaker Unified Studio VSCode IDE Spaces](https://docs.aws.amazon.com/sagemaker-unified-studio/latest/userguide/create-space.html) 또는 EC2를 사용하여 업그레이드 에이전트를 실행하는 것이 좋습니다. 업그레이드 에이전트는 대상 EMR-EC2 클러스터 또는 EMR-S 애플리케이션을 사용하여 end-to-end.
+ **오류 기반 접근** 방식: 업그레이드 에이전트는 오류 기반 방법론을 사용하여 한 번에 여러 수정 사항이 아닌 컴파일 또는 런타임 오류를 기반으로 한 번에 하나의 수정 작업을 수행합니다. 이 반복적 접근 방식을 사용하면 다음 단계로 진행하기 전에 각 문제를 적절하게 해결할 수 있습니다.
+ **프라이빗 종속성**: 프라이빗 아티팩트 리포지토리에서 설치된 종속성은이 프로세스의 일부로 자동으로 업그레이드할 수 없습니다. 사용자가 업그레이드해야 합니다.
+ **리전 리소스**: Spark 업그레이드 에이전트는 리전이며 업그레이드 프로세스에 해당 리전의 기본 EMR 리소스를 사용합니다. 리전 간 업그레이드는 지원되지 않습니다.

# 문제 해결 및 Q&A
<a name="emr-spark-upgrade-agent-troubleshooting"></a>

## 문제 해결
<a name="spark-upgrade-agent-troubleshooting-common"></a>

업그레이드 프로세스의 오류 메시지는 다양한 MCP 클라이언트에 대해 다양한 방식으로 사용할 수 있습니다. 이 페이지에서는 Amazon EMR용 Apache Spark 업그레이드 에이전트를 사용할 때 발생할 수 있는 일반적인 문제에 대한 몇 가지 일반적인 지침을 나열합니다.

**Topics**
+ [오류: SMUS 관리형 MCP 서버를 로드하지 못함](#spark-upgrade-agent-mcp-server-failed)
+ [관찰 : 느린 도구 로드](#spark-upgrade-agent-slow-tool-loading)
+ [오류: 도구 호출 실패 및 조절 오류](#spark-upgrade-agent-throttling-error)
+ [오류: 도구가 사용자 오류로 응답](#spark-upgrade-agent-user-error)
+ [오류: 도구가 내부 오류로 응답](#spark-upgrade-agent-internal-error)

### 오류: SMUS 관리형 MCP 서버를 로드하지 못함
<a name="spark-upgrade-agent-mcp-server-failed"></a>
+  MCP 구성이 올바르게 구성되었는지 확인합니다.
+ **JSON 구문 검증**:
  + 구문 오류 없이 JSON이 유효한지 확인
  + 누락된 쉼표, 따옴표 또는 대괄호 확인
+ 로컬 AWS 자격 증명을 확인하고 MCP IAM 역할에 대한 정책이 올바르게 구성되었는지 확인합니다.
+ /mcp를 실행하여 `Kiro-CLI` 사례에 대한 MCP 서버 가용성 확인

### 관찰 : 느린 도구 로드
<a name="spark-upgrade-agent-slow-tool-loading"></a>
+ 서버를 처음 시작할 때 도구를 로드하는 데 몇 초 정도 걸릴 수 있습니다.
+ 도구가 표시되지 않으면 채팅을 다시 시작해 보십시오.
+ `/tools` 명령을 실행하여 도구 가용성을 확인합니다.
+ 서버가 오류 없이 시작`/mcp`되면를 실행합니다.

### 오류: 도구 호출 실패 및 조절 오류
<a name="spark-upgrade-agent-throttling-error"></a>

서비스 한도에 도달한 경우 제한 예외가 표시되면 몇 초 정도 기다렸다가 도구 호출을 실행하십시오.

### 오류: 도구가 사용자 오류로 응답
<a name="spark-upgrade-agent-user-error"></a>
+ AccessDeniedException - 오류 메시지를 확인하고 권한 문제를 수정합니다.
+ InvalidInputException - 오류 메시지를 확인하고 도구 입력 파라미터를 수정합니다.
+ ResourceNotFoundException - 오류 메시지를 확인하고 리소스 참조를 위해 입력 파라미터를 수정합니다.

### 오류: 도구가 내부 오류로 응답
<a name="spark-upgrade-agent-internal-error"></a>
+ 표시되는 경우 몇 초 후에 도구 호출을 다시 시도`The service is handling high-volume requests`하세요.
+ 분석 ID, 도구 이름, mcp 로그 또는 도구 응답에서 사용할 수 있는 오류 메시지, 선택적으로 삭제된 대화 기록을 문서화하고 AWS 지원 팀에 문의`INTERNAL SERVICE EXCEPTION`하세요.

## Q&A
<a name="spark-upgrade-agent-qa"></a>

### 1. 도구에 대해 기본적으로 "신뢰" 설정을 활성화해야 합니까?
<a name="spark-upgrade-agent-qa-trust-setting"></a>

처음에는 모든 도구 호출에 대해 기본적으로 "신뢰" 설정을 켜지 않고 git 버전 빌드 환경에서 작동합니다. 각 도구 실행을 검토하여 변경 사항을 파악합니다. 예를 들어 동의를 제공하기 전에 업그레이드 계획을 검토합니다. Kiro 또는 에이전트의 `fs_write` 도구를 신뢰하지 마세요.이 도구는 프로젝트 파일을 수정하므로 변경 사항을 저장/커밋하기 전에 항상 검토해야 합니다. 일반적으로 제안된 모든 파일 변경 사항을 기록하도록 허용하기 전에 검토합니다. git을 사용하여 버전 변경을 수행하고 업그레이드 프로세스 전반에 걸쳐 체크포인트를 생성합니다. 점진적으로 신뢰 구축 - 시스템을 여러 업그레이드에 반복적으로 사용하고 도구에 대한 신뢰를 얻은 경우 특정 도구를 선택적으로 신뢰할 수 있습니다.

### 2. 업그레이드 도구를 활용하기 위한 일반적인 예제 프롬프트는 무엇입니까?
<a name="spark-upgrade-agent-qa-prompt-examples"></a>

업그레이드 도구 활용에 대한 프롬프트 예제[Spark 업그레이드 에이전트에 대한 프롬프트 예제](emr-spark-upgrade-agent-prompt-examples.md)는 섹션을 참조하세요.

# Spark 업그레이드 에이전트 워크플로 세부 정보
<a name="emr-spark-upgrade-agent-workflow-details"></a>

업그레이드 프로세스를 시작하려면 가급적 Git 버전 제어가 초기화된 상태로 Spark 애플리케이션 코드를 개발자 환경(로컬 또는 EC2 또는 [ Amazon SageMaker Unified Studio IDE 스페이스](https://docs.aws.amazon.com/sagemaker-unified-studio/latest/userguide/create-space.html))에 복제해야 합니다. 또한 대상 Spark 버전을 실행하는 EMR 클러스터를 프로비저닝하고 액세스할 수 있어야 합니다. 마지막으로, 지정된 Amazon S3 버킷 경로를 구성하여 업그레이드 프로세스 전반에 걸쳐 배포 아티팩트와 업그레이드 요약을 저장해야 합니다.

이러한 요구 사항이 설정되면 다음과 같은 프롬프트를 제출하여 업그레이드 워크플로를 시작할 수 있습니다.

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-EC2 Cluster <cluster-id> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts.
```

이 시점에서 에이전트는 특수 도구를 사용하여 업그레이드를 오케스트레이션합니다(자세한 [내용은](emr-spark-upgrade-agent-tools.md) 참조). 워크플로는 다음 단계를 따릅니다.

1. **계획 생성**: 에이전트가 프로젝트 구조를 분석하고 업그레이드 계획을 생성합니다. 계획을 검토하고 진행에 동의하세요.

1. **계획 검토 및 사용자 지정**: 계획을 검토하라는 메시지가 표시되면 몇 가지 옵션이 있습니다.

   1. **그대로 진행**: 계획을 수락하고 실행을 계속합니다.

   1. **피드백 제공**: 다음을 기준으로 계획을 사용자 지정합니다.

      1. 불필요한 단계 제거 - 예: 통합 테스트 실행을 제거합니다. 로컬에서만 컴파일/빌드한 다음 EMR 검증으로 진행합니다.

      1. 추가 단계 추가 - 예: EMR 검증 `tests/test_jobs/test_etl_job_x.py` 전에 테스트 파일을 실행하는 단계를 추가합니다.

      1. 업그레이드 접근 방식 수정 - 예: 빌드 및 검증 단계에서 Python 3.10 및 Java 17을 적용합니다.

1. 에이전트는 피드백을 기반으로 계획을 다시 생성하고 동의를 다시 요청합니다. 이 프로세스는 최종 계획을 승인할 때까지 계속됩니다.

1. **컴파일 및 빌드**: 에이전트는 애플리케이션이 성공적으로 컴파일되고 빌드될 때까지 빌드 오류를 수정하기 위해 반복적으로 변경합니다.

1. **유닛 및 통합 테스트 실행**: 프로젝트에 테스트가 있는 경우 성공적인 빌드 후 에이전트가 테스트를 실행합니다. 테스트가 실패하면 에이전트는 EMR 검증으로 진행하기 전에 테스트가 통과할 때까지 소스 코드를 반복적으로 수정합니다.

1. **런타임 수정 및 검증**: 에이전트는 대상 EMR 클러스터에서 애플리케이션을 검증하고 검증이 성공할 때까지 런타임 오류를 반복적으로 수정합니다. 완료되면 호환성을 위해 수행된 모든 변경 사항의 요약이 표시됩니다.

1. **업그레이드 요약**: 업그레이드가 완료되면 에이전트는 검토를 위해 모든 코드 및 구성 변경 사항, 종속성 버전 업데이트 및 감지된 데이터 품질 불일치에 대한 요약을 제공합니다.

# 데이터 품질 검증 활성화
<a name="emr-spark-upgrade-agent-data-quality-validation"></a>

프롬프트에 소스 및 대상 클러스터 IDs 모두 제공하여 데이터 품질 검사를 활성화할 수 있습니다. 시스템은 소스 클러스터에서 기존 애플리케이션을 실행하여 비교를 위해 기준 메타데이터를 수집합니다.

**참고: 데이터 품질에 대해서는 Spark 쓰기 작업만 추적할 수 있습니다.**

```
Upgrade my pyspark application <local-path>/pyspark-example-24/ from EMR version 6.0.0 to 7.12.0. Use EMR-EC2 Cluster <source-cluster-id> for source version run  
and <target-cluster-id> for target version run. Use s3 path s3://<please fill in your staging bucket path> to store updated application artifacts  
and s3://<please fill in your staging bucket path>/metadata for storing metadata. Enable data quality checks.
```

## 데이터 품질 워크플로 차이점
<a name="emr-spark-upgrade-agent-data-quality-workflow"></a>

워크플로는 표준 업그레이드 프로세스와 동일한 단계를 따르며 위의 순서로 이러한 추가 단계를 수행합니다.
+ **[3단계 후: 계획 검토 및 사용자 지정]**
  + **현재 구성으로 빌드**: 소스 클러스터 제출을 위한 현재 구성으로 애플리케이션을 빌드합니다.
  + **소스 EMR 클러스터에서 검증**: 소스 Spark 버전에서 원래 애플리케이션을 실행하고 기준 비교를 위해 출력 메타데이터를 수집합니다.
+ **[7단계: 업그레이드 요약 이후] 데이터 품질 요약**: 버전과 분석 간의 데이터 품질 비교 보고서.

### 데이터 품질 불일치 기능에는 현재 다음이 포함됩니다.
<a name="emr-spark-upgrade-agent-data-quality-mismatch"></a>
+ **스키마 검사**: 열 구조의 변경 사항, 즉 누락되거나 새로 추가된 열, 데이터 형식 차이 및 null 가능성 변경을 감지합니다.
+ **값 확인***(숫자 및 문자열 열만 해당)*
  + 최소, 최대 및 평균(숫자 열의 평균만 해당)을 비교합니다.
  + 문자열의 경우 최소 및 최대는 사전 순서를 기반으로 합니다.
+ **집계 통계 검사**: 소스 출력과 대상 출력 간의 총 행 수를 비교합니다.

## 데이터 품질 검증: 범위 및 제한 사항
<a name="emr-spark-upgrade-agent-data-quality-scope"></a>

데이터 품질 검증은 Spark 버전 >= 3.0인 spark-submit 명령을 사용하여 EMR-EC2 단계를 지원하며 EMR 클러스터는 StepConcurrencyLevel > 1을 가질 수 없습니다. 데이터 품질 검증은 Spark 쿼리 계획의 데이터 싱크 노드(데이터 소스/트랜스포밍의 메타데이터는 캡처되지 않음)에서 통계를 평가하고 파일 쓰기, 데이터베이스 삽입, 테이블 생성 및 다양한 데이터 소스 출력을 포함한 일반적인 Spark 쓰기 작업을 다룹니다.

# Spark 업그레이드 에이전트에 대한 프롬프트 예제
<a name="emr-spark-upgrade-agent-prompt-examples"></a>

업그레이드 프로세스에 사용할 수 있는 몇 가지 프롬프트 예제가 나와 있습니다.

## 1. Spark 애플리케이션 업그레이드를 위한 에이전트의 기존 EMR Step 정보 제공
<a name="emr-spark-upgrade-agent-existing-step-info"></a>

```
Upgrade my Spark application <local-project-path> from EMR version 6.0.0 to 7.12.0.   
Use EMR-EC2 Cluster <cluster-id> to run the validation and s3 paths   
s3://<please fill in your staging bucket path> to store updated application artifacts. The Spark   
application is already executed in the source EMR-EC2 Cluster <cluster-id> with   
step id <step-id>.
```

## 2. 분석 나열(업그레이드에 사용됨) 및 특정 분석의 상태 확인
<a name="emr-spark-upgrade-agent-list-analysis"></a>

```
Can you list all the spark upgrade analysis.
```

```
Describe the analysis with analysis id <analysis id>.
```

## 3. 업그레이드 계획이 생성된 후 수정
<a name="emr-spark-upgrade-agent-modify-plan"></a>

```
Help me to update the generated upgrade plan to skip the local test step.
```

## 4. 업그레이드 검증 작업 실행의 기본 구성 재정의
<a name="emr-spark-upgrade-agent-override-config"></a>

```
For submitting my EMR Severless validaiton job. I would like to use S3 logging instead  
of CW logging, and use this S3 path <S3 path prefix>.
```

# 기존 애플리케이션에서 대상 EMR 클러스터/EMR-S 애플리케이션 생성
<a name="emr-spark-upgrade-agent-target-cluster"></a>

소스 Spark 버전을 실행하는 EMR-EC2 클러스터가 이미 있는 경우 이를 복제하여 동일한 구성이지만 업데이트된 EMR 릴리스 버전으로 새 클러스터를 생성하여 업그레이드 프로세스 중에 검증 단계를 실행할 수 있습니다.

## 단계:
<a name="emr-spark-upgrade-agent-clone-cluster-steps"></a>

1. 에 로그인 AWS Management Console 하고 Amazon EMR 콘솔을 엽니다.

1. 왼쪽 탐색 창의 EMR on EC2에서 클러스터를 선택합니다.

1. 클러스터 목록에서 다음을 수행합니다.
   + 필요한 경우 검색 또는 필터를 사용하여 클러스터를 찾습니다.
   + 복제하려는 클러스터 옆의 확인란을 선택합니다.
   + 복제 옵션이 목록 상단에 나타납니다. 복제를 선택합니다.
   + 클러스터에 단계가 구성된 경우 단계 포함을 선택한 다음 계속을 선택하여 다른 클러스터 설정과 함께 단계를 복제합니다.

1. 원래 클러스터에서 복사된 새 클러스터의 설정을 검토합니다.

1. Amazon EMR 릴리스 버전을 대상 버전으로 업데이트합니다.

1. 비용 효율성을 위한 모범 사례로, 워크로드 수요에 따라 용량을 자동으로 조정하도록 클러스터를 구성할 때 Auto Scaling을 활성화하는 것이 좋습니다.

1. 구성에 만족하면 클러스터 생성을 선택하여 새 클러스터를 시작합니다.

1. 클러스터가 실행 중 상태에 도달할 때까지 기다렸다가 클러스터 ID를 기록해 둡니다. 업데이트된 애플리케이션을 검증하라는 메시지가 표시되면이 ID를 에이전트에 제공합니다.

1. 처음부터 새 클러스터를 생성하려면 EMR 설명서: [ https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-gs.html ](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-gs.html)참조하십시오.

## EMR Serverless 애플리케이션을 대상 릴리스 버전으로 복제
<a name="emr-spark-upgrade-agent-clone-serverless"></a>

EMR Serverless 애플리케이션을 다른 EMR 릴리스 버전의 새 애플리케이션에 복제하는 직접적인 방법은 없습니다. 대신 EMR Serverless SDK/CLI 또는 콘솔을 사용하여 새 애플리케이션을 생성하고 기존 애플리케이션의 구성을 재사용할 수 있습니다.

다음은 시작하기 위한 몇 가지 헬퍼 CLI 명령입니다.

```
aws emr-serverless get-application --application-id XXX > old-config.json  
cat old-config.json | jq '{  
  name: (.application.name + "<suffix to differentiate name from old application>"),  
  releaseLabel: "<target EMR release version>",  
  type: .application.type,  
  initialCapacity: .application.initialCapacity,  
  maximumCapacity: .application.maximumCapacity,  
  autoStartConfiguration: .application.autoStartConfiguration,  
  autoStopConfiguration: .application.autoStopConfiguration,  
  tags: .application.tags,  
  architecture: .application.architecture,  
  runtimeConfiguration: .application.runtimeConfiguration,  
  monitoringConfiguration: .application.monitoringConfiguration  
}' > new-config.json  
aws emr-serverless create-application --cli-input-json file://new-config.json
```

**참고:** 새 애플리케이션의 작업 실행 역할이 EMR Serverless가 역할을 수임하도록 허용하는지 확인합니다. 역할의 신뢰 정책을 검토합니다. 이전 애플리케이션에서 동일한 작업 실행 역할을 재사용하는 경우 아래와 같이 새 애플리케이션을 포함하도록 신뢰 정책을 업데이트합니다.

```
#Replace the old application id and new application id in the policy  
{  
    "Version": "2012-10-17",		 	 	  
    "Statement": [  
        {  
            "Sid": "ServerlessTrustPolicy",  
            "Effect": "Allow",  
            "Principal": {  
                "Service": "emr-serverless.amazonaws.com"  
            },  
            "Action": "sts:AssumeRole",  
            "Condition": {  
                "StringLike": {  
                    "aws:SourceArn": [  
                        "arn:aws:emr-serverless:us-east-1:<account>:/applications/<old application id>",  
                        "arn:aws:emr-serverless:us-east-1:<account>:/applications/<new application id>"  
                    ]  
                }  
            }  
        }  
    ]  
}
```

# IAM 역할 설정
<a name="emr-spark-upgrade-agent-iam-role"></a>

설정 지침의 CloudFormation 스택은 IAM 역할 설정을 자동화합니다. 수동으로 실행하려면 아래 지침을 따르세요.

## MCP 서버에 대한 IAM 역할 설정
<a name="emr-spark-upgrade-agent-iam-mcp-server"></a>

SMUS 관리형 MCP 서버에 액세스하려면 다음 인라인 정책에 따라 IAM 역할이 필요합니다.

```
{  
    "Version": "2012-10-17",		 	 	 
    "Statement": [  
        {  
            "Sid": "AllowUseSagemakerUnifiedStudioMcpServer",  
            "Effect": "Allow",  
            "Action": [  
                "sagemaker-unified-studio-mcp:InvokeMcp",  
                "sagemaker-unified-studio-mcp:CallReadOnlyTool",  
                "sagemaker-unified-studio-mcp:CallPrivilegedTool"  
            ],  
            "Resource": [  
                "*"  
            ]  
        }  
    ]  
}
```

다음 단계에서는이 역할에 대한 프로필을 생성합니다. 자격 증명을 얻기 위해이 역할을 수임하는 계정은 수임 역할 정책에 추가해야 합니다.

```
{  
  "Version": "2012-10-17",		 	 	 
  "Statement": [  
    {  
      "Sid": "AllowAccountToAssumeRole",  
      "Effect": "Allow",  
      "Principal": { "AWS": "arn:aws:iam::<accountId>:root" },  
      "Action": "sts:AssumeRole"  
    }  
  ]  
}
```

## 배포 모드별 추가 권한(EMR-EC2/EMR-S)
<a name="emr-spark-upgrade-agent-iam-deployment-modes"></a>

### EMR-EC2 애플리케이션
<a name="emr-spark-upgrade-agent-iam-emr-ec2"></a>

정책의 Amazon S3 스테이징 버킷을 업그레이드된 아티팩트를 저장할 Amazon S3 버킷으로 바꿉니다.

```
{  
  "Version": "2012-10-17",		 	 	 
  "Statement": [  
    {  
      "Effect": "Allow",  
      "Action": [  
        "elasticmapreduce:DescribeCluster",  
        "elasticmapreduce:DescribeStep",  
        "elasticmapreduce:ListSteps",  
        "elasticmapreduce:ListClusters",  
        "elasticmapreduce:DescribeJobFlows",  
        "elasticmapreduce:AddJobFlowSteps",  
        "elasticmapreduce:CreatePersistentAppUI",  
        "elasticmapreduce:DescribePersistentAppUI",  
        "elasticmapreduce:GetPersistentAppUIPresignedURL"  
      ],  
      "Resource": "*"  
    },  
    {  
      "Effect": "Allow",  
      "Action": [  
        "s3:GetBucket*",  
        "s3:GetObject*",  
        "s3:List*",  
        "s3:Put*"  
      ],  
      "Resource": [  
        "arn:aws:s3:::<s3-staging-bucket>",  
        "arn:aws:s3:::<s3-staging-bucket>/*"  
      ]  
    }  
  ]  
}
```

#### KMS 권한 - 스테이징 버킷
<a name="emr-spark-upgrade-agent-iam-kms-staging"></a>

스테이징 버킷이 CMK로 암호화된 경우 다음 정책을 추가합니다. 서비스는 데이터를 업로드할 때 버킷에 구성된 CMK를 자동으로 사용합니다.

```
{  
  "Effect": "Allow",  
  "Action": [  
    "kms:GenerateDataKey",  
    "kms:Encrypt"  
  ],  
  "Resource": "arn:aws:kms:<region>:<account-id>:key/<cmk-key-id>"  
}
```

### EMR Serverless 애플리케이션
<a name="emr-spark-upgrade-agent-iam-emr-serverless"></a>

정책의 Amazon S3 스테이징 버킷을 업그레이드된 아티팩트를 저장할 Amazon S3 버킷으로 바꿉니다.

```
{  
  "Version": "2012-10-17",		 	 	 
  "Statement": [  
    {  
      "Effect": "Allow",  
      "Action": [  
        "emr-serverless:StartJobRun",  
        "emr-serverless:GetJobRun",  
        "emr-serverless:GetApplication",  
        "emr-serverless:ListApplications",  
        "emr-serverless:GetDashboardForJobRun"  
      ],  
      "Resource": "*"  
    },  
    {  
      "Effect": "Allow",  
      "Action": "iam:PassRole",  
      "Resource": "*",  
      "Condition": {  
        "StringLike": {  
          "iam:PassedToService": "emr-serverless.amazonaws.com"  
        }  
      }  
    },  
    {  
      "Effect": "Allow",  
      "Action": [  
        "logs:GetLogEvents",  
        "logs:DescribeLogStreams"  
      ],  
      "Resource": "arn:aws:logs:*:*:log-group:*"  
    },  
    {  
      "Effect": "Allow",  
      "Action": [  
        "s3:GetBucket*",  
        "s3:GetObject*",  
        "s3:List*",  
        "s3:Put*"  
      ],  
      "Resource": [  
        "arn:aws:s3:::<s3-staging-bucket>",  
        "arn:aws:s3:::<s3-staging-bucket>/*"  
      ]  
    }  
  ]  
}
```

#### KMS 권한 - 스테이징 버킷
<a name="emr-spark-upgrade-agent-iam-kms-staging-serverless"></a>

스테이징 버킷이 CMK로 암호화된 경우 다음 정책을 추가합니다. 서비스는 데이터를 업로드할 때 버킷에 구성된 CMK를 자동으로 사용합니다.

```
{  
  "Effect": "Allow",  
  "Action": [  
    "kms:GenerateDataKey",  
    "kms:Encrypt"  
  ],  
  "Resource": "arn:aws:kms:<region>:<account-id>:key/<cmk-key-id>"  
}
```

#### KMS 권한 - CloudWatch Logs
<a name="emr-spark-upgrade-agent-iam-kms-cloudwatch"></a>

CloudWatch Logs가 CMK로 암호화된 경우 서비스가 EMR-Serverless 애플리케이션 로그를 읽을 수 있도록 다음 정책을 추가합니다.

```
{  
"Effect": "Allow",  
"Action": [  
    "kms:Decrypt",  
    "kms:DescribeKey"  
],  
"Resource": "arn:aws:kms:<region>:<account-id>:key/<cw-logs-cmk-id>"  
}
```

# Amazon SageMaker Unified Studio MCP에 대한 인터페이스 VPC 엔드포인트 구성
<a name="spark-upgrade-agent-vpc-endpoints"></a>

*인터페이스 VPC 엔드포인트*를 생성하여 VPC와 Amazon SageMaker Unified Studio MCP 서비스 간에 프라이빗 연결을 설정할 수 있습니다. 인터페이스 엔드포인트는 [Amazon VPC](https://aws.amazon.com/vpc/)로 구동되므로 인터넷 게이트웨이, NAT 디바이스, VPN 연결 또는 연결 없이 VPC의 MCP 서버에 비공개로 액세스할 수 있습니다. VPC의 인스턴스는 MCP 서비스와 통신하는 데 퍼블릭 IP 주소가 필요하지 않으며 VPC와 MCP 서비스 간의 트래픽은 Amazon 네트워크를 벗어나지 않습니다.

각 인터페이스 엔드포인트는 VPC 서브넷에서 하나 이상의 [탄력적 네트워크 인터페이스](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-eni.html)로 표시됩니다. 자세한 내용은 *Amazon* [VPC 사용 설명서의 인터페이스 VPC 엔드포인트](https://docs.aws.amazon.com/vpc/latest/userguide/vpce-interface.html)를 참조하세요.

## 1단계: Amazon SageMaker Unified Studio MCP용 인터페이스 VPC 엔드포인트 생성
<a name="create-vpc-endpoint-upgrade"></a>

Amazon VPC 콘솔 또는를 사용하여 Amazon SageMaker Unified Studio MCP 서비스에 대한 VPC 엔드포인트를 생성할 수 있습니다 AWS CLI. 자세한 내용은 *Amazon VPC 사용 설명서*의 [인터페이스 엔드포인트 생성](https://docs.aws.amazon.com/vpc/latest/userguide/vpce-interface.html#create-interface-endpoint)을 참조하세요.

다음 서비스 이름을 사용하여 Amazon SageMaker Unified Studio MCP용 VPC 엔드포인트를 생성합니다.
+ com.amazonaws.*<aws-region>*.sagemaker-unified-studio-mcp

엔드포인트에 대해 프라이빗 DNS를 활성화하면 리전의 기본 DNS 이름을 사용하여 Amazon SageMaker Unified Studio MCP에 API 요청을 할 수 있습니다. 예를 들면 다음과 같습니다. `sagemaker-unified-studio-mcp.us-east-1.api.aws` 

자세한 내용은 *Amazon VPC 사용 설명서*의 [인터페이스 엔드포인트를 통해 서비스 액세스](https://docs.aws.amazon.com/vpc/latest/userguide/vpce-interface.html#access-service-though-endpoint)를 참조하세요.

## 2단계: Amazon SageMaker Unified Studio MCP에 대한 VPC 엔드포인트 정책 생성
<a name="create-vpc-endpoint-policy-upgrade"></a>

Amazon SageMaker Unified Studio MCP에 대한 액세스를 제어하는 엔드포인트 정책을 VPC 엔드포인트에 연결할 수 있습니다. 이 정책은 다음 정보를 지정합니다.
+ 작업을 수행할 수 있는 위탁자.
+ 수행할 수 있는 작업.
+ 작업을 수행할 수 있는 리소스.

자세한 내용은 *Amazon VPC 사용 설명서*의 [VPC 엔드포인트를 통해 서비스에 대한 액세스 제어](https://docs.aws.amazon.com/vpc/latest/userguide/vpc-endpoints-access.html)를 참조하세요.

### 예: 특정 IAM 역할에 대한 MCP 액세스를 허용하는 VPC 엔드포인트 정책
<a name="vpc-endpoint-policy-example-upgrade"></a>

다음은 Amazon SageMaker Unified Studio MCP 액세스를 위한 엔드포인트 정책의 예입니다. 엔드포인트에 연결되면이 정책은 모든 리소스의 특정 IAM 역할 보안 주체에 대해 나열된 Amazon SageMaker Unified Studio MCP 작업에 대한 액세스 권한을 부여합니다.

```
{
  "Version": "2012-10-17",		 	 	 
  "Statement": [
    {
      "Effect": "Allow",
      "Principal": {
        "AWS": "arn:aws:iam::ACCOUNT-ID:role/YourRoleName"
      },
      "Action": [
        "sagemaker-unified-studio-mcp:InvokeMcp",
        "sagemaker-unified-studio-mcp:CallReadOnlyTool",
        "sagemaker-unified-studio-mcp:CallPrivilegedTool"
      ],
      "Resource": "*"
    }
  ]
}
```

## 3단계: VPC 테스트
<a name="test-vpc-endpoint-upgrade"></a>

이 `curl` 명령은 HTTP/HTTPS 요청을 통해 VPC 네트워크(EC2)에서 VPC 엔드포인트로의 end-to-end 네트워크 연결을 검증합니다. MCP 서버에서 메시지를 다시 수신하는 curl 응답은 전체 네트워크 경로가 작동하는지 확인합니다.

### 방법 1: 프라이빗 DNS가 활성화된 경우(권장)
<a name="test-private-dns-enabled-upgrade"></a>

```
curl https://sagemaker-unified-studio-mcp.us-east-1.api.aws/spark-upgrade/mcp
```

### 방법 2: 프라이빗 DNS가 활성화되지 않은 경우
<a name="test-private-dns-disabled-upgrade"></a>

```
curl -k https://vpce-0069xxxx-ejwh6xxx.sagemaker-unified-studio-mcp.us-east-1.vpce.amazonaws.com/spark-upgrade/mcp
```

**참고**  
`-k` 플래그는 VPC 엔드포인트 DNS 이름과 인증서의 일반 이름(CN) 간의 호스트 이름 불일치로 인해 SSL 인증서 확인을 우회합니다.

두 경우 모두 curl 명령은 응답을 반환합니다`{"Message":"...."}`. 메시지와 함께를 반환하면 MCP 서비스의 VPC 엔드포인트에 대한 네트워크 경로 연결이 성공했는지 확인합니다.

## 4단계: MCP VPC 엔드포인트 사용 시작
<a name="use-vpc-endpoint-upgrade"></a>

연결을 확인한 후에는 단계에 따라에서 MCP를 구성할 수 있습니다[에이전트 업그레이드 설정](emr-spark-upgrade-agent-setup.md). MCP 구성에서 프라이빗 VPC 엔드포인트를 사용하기만 하면 됩니다.

# Spark 업그레이드 도구 사용
<a name="emr-spark-upgrade-agent-tools"></a>

## 사용 가능한 업그레이드 도구
<a name="emr-spark-upgrade-agent-available-tools"></a>

MCP 서비스는 Spark 업그레이드를 지원하는 여러 도구를 제공합니다. 주요 도구는 다음과 같습니다.


|  | 도구 이름 | 도구 범주 | 설명 | 
| --- | --- | --- | --- | 
| 1 | generate\$1spark\$1upgrade\$1plan | 플래너 | EMR-EC2/EMR-S 업그레이드 계획 생성 | 
| 2 | reuse\$1existing\$1spark\$1upgrade\$1plan | 플래너 | 기존 로컬 업그레이드 계획 재사용 | 
| 3 | update\$1build\$1configuration | 빌드 | 빌드 구성 파일 업그레이드 | 
| 4 | check\$1and\$1update\$1build\$1environment | 빌드 | Spark 업그레이드를 위한 Java 환경 확인/업데이트 | 
| 5 | 컴파일\$1및\$1빌드\$1프로젝트 | 빌드 | 프로젝트 컴파일/구축 지침 제공 | 
| 6 | run\$1validation\$1작업 | 테스트 | EMR-EC2/EMR-S에 Spark 앱 제출 | 
| 7 | check\$1job\$1status | 테스트 | EMR-EC2 단계 또는 EMR-S 작업 실행 상태 확인 | 
| 8 | check\$1and\$1update\$1python\$1environment | Spark 코드 편집 | Spark 업그레이드를 위한 Python 환경 확인/업데이트 | 
| 9 | fix\$1upgrade\$1failure | Spark 코드 편집 | 실패 분석 및 수정 제안 | 
| 10 | get\$1data\$1quality\$1summary | 관찰성 | 애플리케이션을 업그레이드한 후 데이터 품질 요약 검색 | 
| 11 | describe\$1upgrade\$1analysis | 관찰성 | 지정된 분석 설명 | 
| 12 | list\$1upgrade\$1analyses | 관찰성 | 현재 계정에서 생성한 모든 분석 나열 | 

SMUS 관리형 MCP 서버에서 제공하는 모든 업그레이드 도구의 전체 목록을 보려면 서버의 모든 도구를 나열하면 됩니다.

# Apache Spark 업그레이드 에이전트에 대한 리전 간 처리
<a name="emr-spark-upgrade-agent-cross-region"></a>

Apache Spark 업그레이드 에이전트는 리전 간 추론을 사용하여 자연어 요청을 처리하고 응답을 생성합니다. 교차 리전 추론을 사용하면 에이전트가 추론 요청을 자동으로 라우팅하여 성능을 최적화하고 사용 가능한 컴퓨팅 리소스와 모델 가용성을 극대화하며 최상의 고객 경험을 제공합니다. 사용되는 교차 리전 추론 유형은 Apache Spark 업그레이드 에이전트를 실행하는 리전에 따라 다릅니다. 대부분의 리전에서 에이전트는 추론 요청을 처리할 리전 내에서 최적의 리전을 선택합니다. 그러나 일부 리전에서는 에이전트의 추론 요청이 모든 글로벌 상용 AWS 리전에서 사용 가능한 모든 컴퓨팅 리소스로 안전하게 라우팅됩니다.

## 교차 리전 추론
<a name="emr-spark-upgrade-agent-cross-region-inference"></a>

Apache Spark 업그레이드 에이전트는 로 구동되며 교차 리전 추론을 사용하여 여러 AWS 리전에 트래픽을 분산하여 대규모 언어 모델(LLM) 추론 성능과 신뢰성을 향상시킵니다.

교차 리전 추론은 Spark 애플리케이션 또는 업그레이드 환경이 호스팅되거나 데이터가 저장되는 위치는 변경되지 않지만, 추론 처리를 위해 입력 프롬프트와 출력 결과가 다른 리전으로 전송될 수 있습니다. 모든 데이터는 Amazon의 보안 네트워크를 통해 암호화되어 전송됩니다.

교차 리전 추론을 사용하는 데 드는 추가 비용은 없습니다.

## 교차 리전 추론에 지원되는 리전
<a name="emr-spark-upgrade-agent-supported-regions-inference"></a>

### 지리적 리전 간 추론을 사용하는 리전
<a name="emr-spark-upgrade-agent-geographic-inference"></a>

대부분의 리전에서 교차 리전 추론 요청은 Apache Spark 업그레이드 에이전트를 실행하는 동일한 리전의 일부인 AWS 리전 내에 보관됩니다. 예를 들어 미국 동부(버지니아 북부) 리전의 에이전트로부터 이루어진 요청은 미국 리전 내의 AWS 리전으로만 라우팅됩니다. 다음 표에서는 요청이 시작된 리전에 따라 요청이 라우팅될 수 있는 리전을 설명합니다.


|  | 지원되는 지리 | 추론 리전 | 
| --- | --- | --- | 
| 1 | 미국 | 미국 동부(버지니아 북부)(us-east-1), 미국 서부(오레곤)(us-west-2), 미국 동부(오하이오)(us-east-2), 미국 서부(캘리포니아 북부)(us-west-2) | 
| 2 | 유럽 | 유럽(프랑크푸르트)(eu-central-1), 유럽(아일랜드)(eu-west-1), 유럽(파리)(eu-west-3), 유럽(스톡홀름)(eu-north-1), 유럽(런던)(eu-west-2) | 
| 3 | 아시아 태평양 | 아시아 태평양(도쿄)(ap-northeast-1), 아시아 태평양(서울)(ap-northeast-2), 아시아 태평양(뭄바이)(ap-south-1) | 

### 글로벌 리전 간 추론을 사용하는 리전
<a name="emr-spark-upgrade-agent-global-inference"></a>

**중요**  
다음 AWS 리전은 글로벌 리전 간 추론을 사용합니다. 이러한 리전에서 Apache Spark 업그레이드 에이전트를 사용하는 경우 성능 및 가용성을 최적화하기 위해 추론 처리를 위해 요청이 전 세계 다른 AWS 리전으로 전송될 수 있습니다.
+ 남아메리카(상파울루) (sa-east-1)
+ 아시아 태평양(싱가포르)(ap-southeast-1)
+ 아시아 태평양(시드니)(ap-southeast-2)
+ 캐나다(중부)(ca-central-1)

# 를 사용하여 Amazon SageMaker Unified Studio MCP 호출 로깅 AWS CloudTrail
<a name="spark-upgrade-cloudtrail-integration"></a>

Amazon SageMaker Unified Studio MCP Server는 Amazon SageMaker Unified Studio MCP Server에서 사용자, 역할 또는 서비스가 수행한 작업에 대한 레코드를 AWS CloudTrail제공하는 AWS 서비스와 통합됩니다. CloudTrail은 Amazon SageMaker Unified Studio MCP Server에 대한 모든 API 호출을 이벤트로 캡처합니다. 캡처되는 호출에는 Amazon SageMaker Unified Studio MCP Server에 대한 호출과 SageMaker Unified Studio MCP Server에서 도구를 실행하는 동안 다른 AWS 작업에 대한 코드 호출이 포함됩니다. 추적을 생성하면 Amazon SageMaker Unified Studio MCP Server에 대한 이벤트를 포함하여 CloudTrail 이벤트를 지속적으로 Amazon S3 버킷에 배포할 수 있습니다. Amazon S3 Amazon SageMaker 추적을 구성하지 않은 경우에도 **이벤트 기록**에서 CloudTrail 콘솔의 최신 이벤트를 볼 수 있습니다. CloudTrail에서 수집한 정보를 사용하여 Amazon SageMaker Unified Studio MCP 서버에 수행된 요청, 요청이 수행된 IP 주소, 요청을 수행한 사람, 요청이 수행된 시간 및 추가 세부 정보를 확인할 수 있습니다.

CloudTrail에 대한 자세한 내용은 [AWS CloudTrail 사용 설명서](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/)를 참조하세요.

## CloudTrail의 Amazon SageMaker Unified Studio MCP 서버 정보
<a name="sagemaker-mcp-info-in-cloudtrail-upgrade"></a>

 AWS 계정을 생성할 때 계정에서 CloudTrail이 활성화됩니다. Amazon SageMaker Unified Studio MCP 서버에서 활동이 발생하면 해당 활동은 **이벤트 기록**의 다른 AWS 서비스 이벤트와 함께 CloudTrail 이벤트에 기록됩니다. AWS 계정에서 최근 이벤트를 보고 검색하고 다운로드할 수 있습니다. 자세한 내용은 [CloudTrail 이벤트 기록을 사용하여 이벤트 보기](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/view-cloudtrail-events.html)를 참조하세요.

SageMaker Unified Studio MCP Server에 대한 이벤트를 포함하여 AWS 계정에 이벤트를 지속적으로 기록하려면 추적을 생성합니다. CloudTrail은 추적을 사용하여 Amazon S3 버킷으로 로그 파일을 전송할 수 있습니다. 기본적으로 콘솔에서 추적을 생성하면 추적이 모든 AWS 리전에 적용됩니다. 추적은 AWS 파티션의 모든 리전에서 이벤트를 로깅하고 지정한 Amazon S3 버킷으로 로그 파일을 전송합니다. 또한 CloudTrail 로그에서 수집된 이벤트 데이터를 추가로 분석하고 조치를 취하도록 다른 AWS 서비스를 구성할 수 있습니다. 자세한 내용은 다음 자료를 참조하세요.
+ [추적 생성 개요](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-create-and-update-a-trail.html)
+ [CloudTrail 지원 서비스 및 통합](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-aws-service-specific-topics.html)
+ [CloudTrail에 대한 Amazon SNS 알림 구성](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/configure-sns-notifications-for-cloudtrail.html)
+ [여러 리전에서 CloudTrail 로그 파일 받기](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/receive-cloudtrail-log-files-from-multiple-regions.html) 및 [여러 계정에서 CloudTrail 로그 파일 받기](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-receive-logs-from-multiple-accounts.html)

도구 실행 중에 AWS 서비스에 대한 모든 SageMaker Unified Studio MCP Server 도구 호출 및 API 호출은 CloudTrail에서 로깅됩니다. 예를 들어 다양한 도구에 대한 호출과 도구에서 수행된 AWS 서비스 호출은 CloudTrail 로그 파일에 항목을 생성합니다.

모든 이벤트 또는 로그 항목에는 요청을 생성했던 사용자에 관한 정보가 포함됩니다. ID 정보를 이용하면 다음을 쉽게 판단할 수 있습니다.
+ 요청을 루트로 했는지 아니면 IAM 사용자 자격 증명 정보로 했는지 여부.
+ 역할 또는 페더레이션 사용자의 임시 자격 증명을 사용하여 요청이 생성되었는지 여부.
+ 요청이 다른 AWS 서비스에 의해 이루어졌는지 여부입니다.

자세한 내용은 [CloudTrail userIdentity 요소](https://docs.aws.amazon.com/awscloudtrail/latest/userguide/cloudtrail-event-reference-user-identity.html)를 참조하세요.

## Amazon SageMaker Unified Studio MCP Server 로그 파일 항목 이해
<a name="understanding-mcp-log-entries-upgrade"></a>

트레일이란 지정한 S3 버킷에 이벤트를 로그 파일로 입력할 수 있게 하는 구성입니다. CloudTrail 로그 파일에는 하나 이상의 로그 항목이 포함될 수 있습니다. 이벤트는 모든 소스로부터의 단일 요청을 나타내며 요청 작업, 작업 날짜와 시간, 요청 파라미터 등에 대한 정보가 들어 있습니다. CloudTrail 로그 파일은 퍼블릭 API 직접 호출의 주문 스택 트레이스가 아니므로 특정 순서로 표시되지 않습니다.

다음 예제는 `CallTool` 작업을 보여주는 CloudTrail 로그 항목이 나타냅니다.

```
{
    "eventVersion": "1.09",
    "userIdentity": {
        ...
    },
    "eventTime": "...",
    "eventSource": "sagemaker-unified-studio-mcp.amazonaws.com",
    "eventName": "CallPrivilegedTool",
    "awsRegion": "us-east-1",
    "sourceIPAddress": "...",
    "userAgent": "...",
    "requestParameters": {
        "id": 1,
        "method": "tools/call",
        "params": {
            "name": "generate_spark_upgrade_plan",
            "arguments": "***",
            "_meta": {
                "progressToken": 1
            }
        },
        "jsonrpc": "2.0"
    },
    "responseElements": {
        "result": {
            "content": "***",
            "structuredContent": "***",
            "isError": false
        },
        "id": 1,
        "jsonrpc": "2.0"
    },
    "requestID": "12345678-1234-1234-1234-123456789012",
    "eventID": "87654321-4321-4321-4321-210987654321",
    "readOnly": false,
    "eventType": "AwsMcpEvent",
    "managementEvent": true,
    "recipientAccountId": "123456789012",
    "eventCategory": "Management"
}
```

다음 예제는 업그레이드 도구 호출 중에 Amazon SageMaker Unified Studio MCP의 `AddJobFlowSteps` 작업을 보여주는 CloudTrail 로그 항목을 보여줍니다.

```
{
    "eventVersion": "1.11",
    "userIdentity": {
        "type": "AssumedRole",
        "principalId": "...",
        "arn": "...",
        "accountId": "123456789012",
        "accessKeyId": "...",
        "sessionContext": {
            ...
        },
        "invokedBy": "sagemaker-unified-studio-mcp.amazonaws.com"
    },
    "eventTime": "...",
    "eventSource": "elasticmapreduce.amazonaws.com",
    "eventName": "AddJobFlowSteps",
    "awsRegion": "us-east-1",
    "sourceIPAddress": "sagemaker-unified-studio-mcp.amazonaws.com",
    "userAgent": "sagemaker-unified-studio-mcp.amazonaws.com",
    "requestParameters": {
        "jobFlowId": "j-2PY4KXXXXXX63",
        "steps": [
            ...
        ]
    },
    "responseElements": {
        "stepIds": [
            ...
        ]
    },
    "requestID": "12345678-1234-1234-1234-123456789013",
    "eventID": "87654321-4321-4321-4321-210987654322",
    "readOnly": false,
    "eventType": "AwsApiCall",
    "managementEvent": true,
    "recipientAccountId": "123456789012",
    "sharedEventID": "12345678-1234-1234-1234-123456789012",
    "vpcEndpointId": "sagemaker-unified-studio-mcp.amazonaws.com",
    "vpcEndpointAccountId": "sagemaker-unified-studio-mcp.amazonaws.com",
    "eventCategory": "Management"
}
```

# Apache Spark 에이전트에 대한 서비스 개선 사항
<a name="emr-spark-agent-service-improvements"></a>

Amazon EMR용 Apache Spark 에이전트는 예를 들어 에이전트가 일반적인 질문에 더 나은 응답을 제공하거나 운영 문제를 해결하거나 디버깅하는 데 도움이 되는 콘텐츠를 사용할 수 있습니다.

## 가 서비스 개선에 사용할 AWS 수 있는 콘텐츠
<a name="emr-spark-agent-content-used"></a>
+ Amazon EMR 및 Amazon SageMaker Notebooks용 Apache Spark 에이전트에서 자연어 프롬프트 및 생성된 응답

## 서비스 개선에를 사용하지 AWS 않는 콘텐츠
<a name="emr-spark-agent-content-not-used"></a>
+ Spark 애플리케이션을 위해 직접 작성하는 코드
+ SageMaker 노트북 컨텍스트 및 메타데이터
+ 데이터 카탈로그 또는 기타 데이터 소스의 데이터

Amazon 직원만 데이터에 액세스할 수 있습니다. 사용자의 신뢰, 프라이버시 및 고객 콘텐츠 보안을 최우선으로 생각하며, 약속한 대로 데이터를 사용하도록 할 것입니다. 자세한 내용은 데이터 프라이버시 FAQ를 참조하세요.

## 옵트아웃 방법
<a name="emr-spark-agent-opt-out"></a>

Apache Spark 에이전트에 대한 데이터 수집을 옵트아웃하려면 Amazon SageMaker Unified Studio MCP Service에 대해에서 AI 서비스 옵트아웃 정책을 구성합니다. 자세한 내용은 Organizations 사용 설명서의 [ AI 서비스 옵트아웃 정책을 ](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_policies_ai-opt-out.html) 참조하세요. *AWS * 

AI 서비스 옵트아웃 정책을 구성하면 다음과 같은 효과가 있습니다.
+ AWS 는 옵트아웃 전에 서비스 개선을 위해 수집 및 저장된 데이터를 삭제합니다(있는 경우).
+ 옵트아웃한 후에는 AWS 가 더 이상이 데이터를 수집하거나 저장하지 않습니다.
+ AWS 는 더 이상 서비스 개선에 콘텐츠를 사용하지 않습니다.

# Amazon EMR 7.x 릴리스 버전
<a name="emr-release-7x"></a>

이 섹션에는 각 Amazon EMR 7.x 릴리스 버전에 제공되는 애플리케이션 버전, 릴리스 정보, 구성 요소 버전 및 구성 분류가 포함되어 있습니다.

클러스터를 시작할 때 Amazon EMR의 여러 릴리스 중에서 선택할 수 있습니다. 이를 통해 호환성 요구 사항에 맞는 애플리케이션 버전을 테스트하고 사용할 수 있습니다. *릴리스 레이블*과 함께 릴리스 번호를 지정합니다. 릴리스 레이블은 `emr-x.x.x` 형식입니다. 예를 들어 `emr-7.12.0`입니다.

새 Amazon EMR 릴리스는 최초 릴리스 날짜에 첫 번째 리전부터 시작하여 일정 기간에 걸쳐 여러 리전에 사용 가능해집니다. 이 기간에는 사용자 리전에서 최신 릴리스 버전이 제공되지 않을 수도 있습니다.

모든 Amazon EMR 7.x 릴리스에서 애플리케이션 버전의 전체 테이블은 [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md) 섹션을 참조하세요.

**Topics**
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 릴리스 7.12.0](emr-7120-release.md)
+ [Amazon EMR 릴리스 7.11.0](emr-7110-release.md)
+ [Amazon EMR 릴리스 7.10.0](emr-7100-release.md)
+ [Amazon EMR 릴리스 7.9.0](emr-790-release.md)
+ [Amazon EMR 릴리스 7.8.0](emr-780-release.md)
+ [Amazon EMR 릴리스 7.7.0](emr-770-release.md)
+ [Amazon EMR 릴리스 7.6.0](emr-760-release.md)
+ [Amazon EMR 릴리스 7.5.0](emr-750-release.md)
+ [Amazon EMR 릴리스 7.4.0](emr-740-release.md)
+ [Amazon EMR 릴리스 7.3.0](emr-730-release.md)
+ [Amazon EMR 릴리스 7.2.0](emr-720-release.md)
+ [Amazon EMR 릴리스 7.1.0](emr-710-release.md)
+ [Amazon EMR 릴리스 7.0.0](emr-700-release.md)

# Amazon EMR 7.x 릴리스의 애플리케이션 버전
<a name="emr-release-app-versions-7.x"></a>

다음 테이블에는 각 Amazon EMR 7.x 릴리스에서 사용할 수 있는 애플리케이션 버전이 나와 있습니다.


**애플리케이션 버전 정보**  

|  | emr-7.12.0 | emr-7.11.0 | emr-7.10.0 | emr-7.9.0 | emr-7.8.0 | emr-7.7.0 | emr-7.6.0 | emr-7.5.0 | emr-7.4.0 | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.35.5, 1.12.792 | 2.35.5, 1.12.792 | 2.31.48, 1.12.782 | 2.31.16, 1.12.782 | 2.29.52, 1.12.780 | 2.29.44, 1.12.780 | 2.29.25, 1.12.779 | 2.28.8, 1.12.772 | 2.28.8, 1.12.772 | 2.25.70, 1.12.747 | 2.23.18, 1.12.705 | 2.23.18, 1.12.656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.17 | 2.12.17 | 2.12.17 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.3.2-amzn-1 | 3.3.2-amzn-0 | 3.3.0-amzn-2 | 3.3.0-amzn-1 | 3.3.0-amzn-0 | 3.2.1-amzn-2 | 3.2.1-amzn-1 | 3.2.1-amzn-0 | 3.2.0-amzn-1 | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1.20.0-amzn-6 | 1.20.0-amzn-5 | 1.20.0-amzn-4 | 1.20.0-amzn-3 | 1.20.0-amzn-2 | 1.20.0-amzn-1 | 1.20.0-amzn-0 | 1.19.1-amzn-1 | 1.19.1-amzn-0 | 1.18.1-amzn-2 | 1.18.1-amzn-1 | 1.18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-3 | 2.6.2-amzn-2 | 2.6.2-amzn-1 | 2.6.2-amzn-0 | 2.6.1-amzn-2 | 2.6.1-amzn-1 | 2.6.1-amzn-0 | 2.5.10-amzn-0 | 2.5.5-amzn-0 | 2.4.17-amzn-7 | 2.4.17-amzn-6 | 2.4.17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-21 | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.4.1-amzn-4 | 3.4.1-amzn-3 | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-3 | 3.4.0-amzn-2 | 3.4.0-amzn-1 | 3.4.0-amzn-0 | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-21 | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 1.0.2-amzn-1 | 1.0.2-amzn-0 | 0.15.0-amzn-7 | 0.15.0-amzn-6 | 0.15.0-amzn-5 | 0.15.0-amzn-4 | 0.15.0-amzn-3 | 0.15.0-amzn-2 | 0.15.0-amzn-1 | 0.15.0-amzn-0 | 0.14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.10.0-amzn-0 | 1.9.1-amzn-0 | 1.8.1-amzn-0 | 1.7.1-amzn-2 | 1.7.1-amzn-1 | 1.7.1-amzn-0 | 1.6.1-amzn-2 | 1.6.1-amzn-1 | 1.6.1-amzn-0 | 1.5.2-amzn-0 | 1.5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.7.1-incubating | 
| MXNet |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-6 | 0.287-amzn-5 | 0.287-amzn-4 | 0.287-amzn-3 | 0.287-amzn-2 | 0.287-amzn-1 | 0.287-amzn-1 | 0.287-amzn-0 | 0.287-amzn-0 | 0.285-amzn-1 | 0.285-amzn-0 | 0.284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.6-amzn-1 | 3.5.6-amzn-0 | 3.5.5-amzn-1 | 3.5.5-amzn-0 | 3.5.4-amzn-0 | 3.5.3-amzn-1 | 3.5.3-amzn-0 | 3.5.2-amzn-1 | 3.5.2-amzn-0 | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.19.0 | 2.19.0 | 2.18.0 | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-19 | 0.10.2-amzn-18 | 0.10.2-amzn-17 | 0.10.2-amzn-16 | 0.10.2-amzn-15 | 0.10.2-amzn-14 | 0.10.2-amzn-13 | 0.10.2-amzn-12 | 0.10.2-amzn-11 | 0.10.2-amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 476-amzn-1 | 475-amzn-0 | 470-amzn-0 | 467-amzn-2 | 467-amzn-1 | 467-amzn-0 | 457-amzn-0 | 446-amzn-0 | 446-amzn-0 | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.9.3-amzn-4 | 3.9.3-amzn-3 | 3.9.3-amzn-2 | 3.9.3-amzn-1 | 3.9.3-amzn-0 | 3.9.2-amzn-1 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

# Amazon EMR 릴리스 7.12.0
<a name="emr-7120-release"></a>

## 7.12.0 지원 수명 주기
<a name="emr-7120-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.12.0에 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2025년 11월 21일 | 
| 표준 지원 종료 시점 | 2027년 11월 21일 | 
| 지원 종료 | 2027년 11월 22일 | 
| 수명 종료 | 2028년 11월 21일 | 

## 7.12.0 애플리케이션 버전
<a name="emr-7120-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.12.0 | emr-7.11.0 | emr-7.10.0 | emr-7.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.35.5, 1.12.792 | 2.35.5, 1.12.792 | 2.31.48, 1.12.782 | 2.31.16, 1.12.782 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.3.2-amzn-1 | 3.3.2-amzn-0 | 3.3.0-amzn-2 | 3.3.0-amzn-1 | 
| Flink | 1.20.0-amzn-6 | 1.20.0-amzn-5 | 1.20.0-amzn-4 | 1.20.0-amzn-3 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-3 | 2.6.2-amzn-2 | 2.6.2-amzn-1 | 2.6.2-amzn-0 | 
| HCatalog | 3.1.3-amzn-21 | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 
| Hadoop | 3.4.1-amzn-4 | 3.4.1-amzn-3 | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 
| Hive | 3.1.3-amzn-21 | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 
| Hudi | 1.0.2-amzn-1 | 1.0.2-amzn-0 | 0.15.0-amzn-7 | 0.15.0-amzn-6 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.10.0-amzn-0 | 1.9.1-amzn-0 | 1.8.1-amzn-0 | 1.7.1-amzn-2 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-6 | 0.287-amzn-5 | 0.287-amzn-4 | 0.287-amzn-3 | 
| Spark | 3.5.6-amzn-1 | 3.5.6-amzn-0 | 3.5.5-amzn-1 | 3.5.5-amzn-0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.19.0 | 2.19.0 | 2.18.0 | 2.16.1 | 
| Tez | 0.10.2-amzn-19 | 0.10.2-amzn-18 | 0.10.2-amzn-17 | 0.10.2-amzn-16 | 
| Trino (PrestoSQL) | 476-amzn-1 | 475-amzn-0 | 470-amzn-0 | 467-amzn-2 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-4 | 3.9.3-amzn-3 | 3.9.3-amzn-2 | 3.9.3-amzn-1 | 

# 7.12.0 일반적인 취약성 및 노출
<a name="7120-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.12.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2025년 11월 13일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-10202  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10202](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2024-51504  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-51504  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2025-30065  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30065](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)  | 
|  CVE-2025-30065  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30065](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)  | 
|  CVE-2014-3643  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2014-3643](https://nvd.nist.gov/vuln/detail/CVE-2014-3643)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-10172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10172](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2021-0341  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-0341](https://nvd.nist.gov/vuln/detail/CVE-2021-0341)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-41404  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41404](https://nvd.nist.gov/vuln/detail/CVE-2022-41404)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-13009  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-13009](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)  | 
|  CVE-2024-13009  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-13009](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-36114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-47561  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-9823  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-9823](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-27553  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27553](https://nvd.nist.gov/vuln/detail/CVE-2025-27553)  | 
|  CVE-2025-27817  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27817](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)  | 
|  CVE-2025-46762  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46762](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)  | 
|  CVE-2025-46762  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46762](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)  | 
|  CVE-2025-46762  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46762](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)  | 
|  CVE-2025-48734  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48734](https://nvd.nist.gov/vuln/detail/CVE-2025-48734)  | 
|  CVE-2025-52434  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52434](https://nvd.nist.gov/vuln/detail/CVE-2025-52434)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-55163  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-55163](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)  | 
|  CVE-2025-58056  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58056](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-59250  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-59250](https://nvd.nist.gov/vuln/detail/CVE-2025-59250)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-1313  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2020-13955  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-27568  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2021-36374  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2022-38749  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-41854  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2023-0833  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-23944  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23953  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-23953  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-29025  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-29869  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-29869  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-31141  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-56128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-8184  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2025-11226  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-11226](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)  | 
|  CVE-2025-11226  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-11226](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)  | 
|  CVE-2025-11226  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-11226](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-30474  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30474](https://nvd.nist.gov/vuln/detail/CVE-2025-30474)  | 
|  CVE-2025-3588  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-3588](https://nvd.nist.gov/vuln/detail/CVE-2025-3588)  | 
|  CVE-2025-46392  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46392](https://nvd.nist.gov/vuln/detail/CVE-2025-46392)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-53864  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-53864](https://nvd.nist.gov/vuln/detail/CVE-2025-53864)  | 
|  CVE-2025-58457  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58457](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)  | 
|  CVE-2025-58457  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58457](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)  | 
|  CVE-2025-59419  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-59419](https://nvd.nist.gov/vuln/detail/CVE-2025-59419)  | 
|  CVE-2025-59419  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-59419](https://nvd.nist.gov/vuln/detail/CVE-2025-59419)  | 
|  CVE-2025-8885  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8885](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)  | 
|  CVE-2025-8885  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8885](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2025-46551  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46551](https://nvd.nist.gov/vuln/detail/CVE-2025-46551)  | 

## 7.12.0 릴리스 정보
<a name="emr-7120-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.12.0에 대한 정보가 포함되어 있습니다.
+ **새로운 기능**
  + **EMR Serverless용 서버리스 스토리지** - Amazon EMR Serverless는 EMR 릴리스 7.12 이상과 함께 서버리스 스토리지를 도입하여 Apache Spark 워크로드에 대한 로컬 디스크 프로비저닝을 제거합니다. EMR Serverless는 스토리지 요금 없이 셔플과 같은 중간 데이터 작업을 자동으로 처리합니다. 서버리스 스토리지는 스토리지를 컴퓨팅에서 분리하므로 Spark는 임시 데이터를 보존하기 위해 활성 상태를 유지하는 대신 유휴 시 작업자를 즉시 해제할 수 있습니다. 자세한 내용은 [aws.amazon.com/serverless-storage-for-emr-serverless](aws.amazon.com/serverless-storage-for-emr-serverless)를 참조하세요.
  + **애플리케이션 업그레이드** - Amazon EMR 7.12.0 애플리케이션 업그레이드에는 Delta 3.3.2-amzn-1, Flink 1.20.0-amzn-6, HBase 2.6.2-amzn-3, HCatalog 3.1.3-amzn-21, Hadoop 3.4.1-amzn-4, Hive 3.1.3-amzn-21, Hudi 1.0.2-amzn-1, Iceberg 1.10.0-amzn-0, Presto 0.287-amzn-6, Spark 3.5.6-amzn-1, Tez 0.10.2-amzn-amzn-19, Triamzn ZooKeeper -
  + **Iceberg 구체화된 뷰** - Amazon EMR 7.12.0부터 Amazon EMR Spark는 Iceberg 구체화된 뷰(MV)의 생성 및 관리를 지원합니다.
  + **Hudi 전체 테이블 액세스** - Amazon EMR 7.12.0부터 Amazon EMR은 이제 Lake Formation에 정의된 정책을 기반으로 Apache Spark의 Apache Hudi에 대한 전체 테이블 액세스(FTA) 제어를 지원합니다. 이 기능을 사용하면 작업 역할에 전체 테이블 액세스 권한이 있을 때 Lake Formation 등록 테이블의 Amazon EMR Spark 작업에서 읽기 및 쓰기 작업을 수행할 수 있습니다.
  + **Iceberg 버전 업그레이드** - Amazon EMR 7.12.0에서 Apache Iceberg 버전 1.10 지원
  + **Lake Formation을 사용한 Spark 네이티브 FGAC 지원** - Lake Formation에 등록된 Apache Hive, Apache Iceberg 및 Delta Lake 테이블에 대한 세분화된 액세스 제어를 통해 DDL/DML 작업(예: CREATE, ALTER, DELETE, DROP)을 수행할 수 있습니다.
  + **Spark 작업에 대한 감사 컨텍스트** - Amazon EMR 7.12.0부터 Lake Formation이 활성화된 클러스터가 있는 Amazon EMR Spark 작업에 대한 감사 컨텍스트를 CloudTrail 로그의 AWS Glue 및 Lake Formation API 호출에 사용할 수 있습니다.
  + Amazon EMR 7.12.0은 GetClusterSessionCredentials 세션 자격 증명 인증 프로세스를 개선하여 이전 Amazon EMR 릴리스에 비해 IAM Identity Center 지원 클러스터에서 Livy 대화형 세션 및 클러스터 내 UI 액세스의 지연 시간을 크게 줄입니다.
  + Amazon EMR 7.12.0부터 Amazon EMR HBase on S3는 Amazon EMR 버전 업그레이드를 간소화하기 위해 읽기 전용 복제본 사전 워밍 기능을 추가했습니다. 이 기능은 Amazon EMR 버전 7.12 이상에서 기존 HBase 클러스터를 업그레이드하는 데 사용할 수 있습니다.
+ **알려진 문제 및 제한 사항**
  + **Athena SQL 호환성**
    + Athena SQL은 다음 오류로 인해 Amazon EMR Spark에서 생성한 Iceberg 테이블 유형 V3를 읽을 수 없습니다. GENERIC\$1INTERNAL\$1ERROR: 지원되지 않는 버전 3을 읽을 수 없습니다.
    + Amazon EMR Spark를 사용하여 Athena를 사용하여 생성된 Iceberg 테이블에 데이터를 쓰는 것은 속성 'write.object-storage.path'가 더 이상 사용되지 않으며 2.0에서 제거됩니다. 대신 'write.data.path'를 사용합니다.
  + **Iceberg 구체화된 뷰(MV)** - Amazon EMR 7.12.0은 구체화된 뷰 생성, 쿼리 재작성 및 증분 새로 고침을 위한 뷰 SQL 절을 제한적으로 지원합니다. 자세한 내용은 Iceberg 구체화된 뷰 기능 설명서 페이지에서 확인할 수 있습니다.
  + **Hudi FTA 쓰기**는 작업 실행 중에 자격 증명 벤딩에 HoodieCredentialedHadoopStorage를 사용해야 합니다. Hudi 작업을 실행할 때는 다음 구성을 설정합니다.
    + `hoodie.storage.class=org.apache.spark.sql.hudi.storage.HoodieCredentialedHadoopStorage`
  + Hudi FTA 쓰기 지원은 기본 Hudi 구성에서만 작동합니다. 사용자 지정이거나 기본값이 아닌 Hudi 설정은 완전히 지원되지 않을 수 있으며 예기치 않은 동작이 발생할 수 있습니다. FTA 쓰기 모드에서는 Hudi Merge-On-Read(MOR) 테이블에 대한 클러스터링도 지원되지 않습니다.
+ **변경 사항, 개선 사항 및 해결된 문제**
  + EMR 7.12.0부터 EMR은 영구 스파크 기록 서버를 통해 서비스 호스팅 스파크 로그에 대한 KMS 키 ARN을 지원합니다. 이전 EMR 버전은 KeyID만 지원했습니다.
  + EMR 7.12.0부터 EMR은 EMR 클러스터에서 Hue를 호스팅할 때 SSL 인증서 사용을 금지하는 Hue 관련 문제를 해결했습니다.

## 7.12.0 기본 Java 버전
<a name="emr-7120-jdk"></a>

Amazon EMR 릴리스 7.12.0은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.12.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.12.0 구성 요소 버전
<a name="emr-7120-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.3.2-amzn-1 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.21.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.25.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.18.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.42.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.21.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.6 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.73.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.20.0-amzn-6 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.20.0-amzn-6 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.1-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.1-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.1-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.1-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-zkfc | 3.4.1-amzn-4 | HA 모드의 네임노드를 추적하기 위한 ZKFC 서비스입니다. | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.1-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.1-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.1-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.6.2-amzn-3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.6.2-amzn-3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.6.2-amzn-3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.6.2-amzn-3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.6.2-amzn-3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.6.2-amzn-3 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-21 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-21 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-21 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-21 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-21 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-21 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-21 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 1.0.2-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 1.0.2-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 1.0.2-amzn-1 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 1.0.2-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.10.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.5.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.1 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-6 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-6 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-6 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 476-amzn-1 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 476-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 476-amzn-1 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.6-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.6-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.6-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.6-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 25.08.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| tensorflow | 2.19.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-19 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-19 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.3-amzn-4 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.3-amzn-4 | ZooKeeper 명령줄 클라이언트. | 

## 7.12.0 구성 분류
<a name="emr-7120-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.12.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j2 | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| cloudwatch-logs | EMR 클러스터 노드에 대한 CloudWatch Logs 통합을 구성합니다. | Not available. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.12.0 변경 로그
<a name="7120-changelog"></a>


**7.12.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-11-21 | 문서 게시 | Amazon EMR 7.12.0 릴리스 정보 최초 게시 | 

# Amazon EMR 릴리스 7.11.0
<a name="emr-7110-release"></a>

## 7.11.0 지원 수명 주기
<a name="emr-7110-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.11.0에 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2025년 11월 3일 | 
| 표준 지원 종료 시점 | 2027년 11월 3일 | 
| 지원 종료 | 2027년 11월 4일 | 
| 수명 종료 | 2028년 11월 3일 | 

## 7.11.0 애플리케이션 버전
<a name="emr-7110-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.11.0 | emr-7.10.0 | emr-7.9.0 | emr-7.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.35.5, 1.12.792 | 2.31.48, 1.12.782 | 2.31.16, 1.12.782 | 2.29.52, 1.12.780 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.3.2-amzn-0 | 3.3.0-amzn-2 | 3.3.0-amzn-1 | 3.3.0-amzn-0 | 
| Flink | 1.20.0-amzn-5 | 1.20.0-amzn-4 | 1.20.0-amzn-3 | 1.20.0-amzn-2 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-2 | 2.6.2-amzn-1 | 2.6.2-amzn-0 | 2.6.1-amzn-2 | 
| HCatalog | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 
| Hadoop | 3.4.1-amzn-3 | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 
| Hive | 3.1.3-amzn-20 | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 
| Hudi | 1.0.2-amzn-0 | 0.15.0-amzn-7 | 0.15.0-amzn-6 | 0.15.0-amzn-5 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.9.1-amzn-0 | 1.8.1-amzn-0 | 1.7.1-amzn-2 | 1.7.1-amzn-1 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-5 | 0.287-amzn-4 | 0.287-amzn-3 | 0.287-amzn-2 | 
| Spark | 3.5.6-amzn-0 | 3.5.5-amzn-1 | 3.5.5-amzn-0 | 3.5.4-amzn-0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.19.0 | 2.18.0 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-18 | 0.10.2-amzn-17 | 0.10.2-amzn-16 | 0.10.2-amzn-15 | 
| Trino (PrestoSQL) | 475-amzn-0 | 470-amzn-0 | 467-amzn-2 | 467-amzn-1 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-3 | 3.9.3-amzn-2 | 3.9.3-amzn-1 | 3.9.3-amzn-0 | 

# 7.11.0 일반적인 취약성 및 노출
<a name="7110-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.11.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2025년 11월 18일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-10202  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10202](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2024-51504  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-51504  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2025-30065  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30065](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)  | 
|  CVE-2014-3643  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2014-3643](https://nvd.nist.gov/vuln/detail/CVE-2014-3643)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-10172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10172](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2021-0341  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-0341](https://nvd.nist.gov/vuln/detail/CVE-2021-0341)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-41404  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41404](https://nvd.nist.gov/vuln/detail/CVE-2022-41404)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-13009  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-13009](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)  | 
|  CVE-2024-13009  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-13009](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-36114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-9823  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-9823](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-27553  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27553](https://nvd.nist.gov/vuln/detail/CVE-2025-27553)  | 
|  CVE-2025-27817  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27817](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)  | 
|  CVE-2025-46762  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46762](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)  | 
|  CVE-2025-46762  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46762](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)  | 
|  CVE-2025-48734  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48734](https://nvd.nist.gov/vuln/detail/CVE-2025-48734)  | 
|  CVE-2025-52434  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52434](https://nvd.nist.gov/vuln/detail/CVE-2025-52434)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-55163  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-55163](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)  | 
|  CVE-2025-55163  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-55163](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)  | 
|  CVE-2025-55163  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-55163](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)  | 
|  CVE-2025-58056  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58056](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)  | 
|  CVE-2025-58056  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58056](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)  | 
|  CVE-2025-58056  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58056](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)  | 
|  CVE-2025-58056  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58056](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-59250  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-59250](https://nvd.nist.gov/vuln/detail/CVE-2025-59250)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-1313  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2020-13955  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-27568  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2021-36374  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2022-38749  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-41854  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2023-0833  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-23944  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23953  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-23953  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-29025  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-29869  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-29869  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-31141  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-56128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-8184  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2025-11226  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-11226](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)  | 
|  CVE-2025-11226  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-11226](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)  | 
|  CVE-2025-11226  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-11226](https://nvd.nist.gov/vuln/detail/CVE-2025-11226)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-30474  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30474](https://nvd.nist.gov/vuln/detail/CVE-2025-30474)  | 
|  CVE-2025-3588  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-3588](https://nvd.nist.gov/vuln/detail/CVE-2025-3588)  | 
|  CVE-2025-46392  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46392](https://nvd.nist.gov/vuln/detail/CVE-2025-46392)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-53864  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-53864](https://nvd.nist.gov/vuln/detail/CVE-2025-53864)  | 
|  CVE-2025-58457  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58457](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)  | 
|  CVE-2025-58457  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58457](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)  | 
|  CVE-2025-59419  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-59419](https://nvd.nist.gov/vuln/detail/CVE-2025-59419)  | 
|  CVE-2025-8885  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8885](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)  | 
|  CVE-2025-8885  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8885](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2025-46551  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46551](https://nvd.nist.gov/vuln/detail/CVE-2025-46551)  | 

## 7.11.0 릴리스 정보
<a name="emr-7110-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.11.0에 대한 정보가 포함되어 있습니다.
+ **새로운 기능**
  + **애플리케이션 업그레이드** - Amazon EMR 7.11.0 애플리케이션 업그레이드에는 Delta 3.3.2-amzn-0, Flink 1.20.0-amzn-5, HBase 2.6.2-amzn-2, HCatalog 3.1.3-amzn-20, Hadoop 3.4.1-amzn-3, Hive 3.1.3-amzn-20, Hudi 1.0.2-amzn-0, Iceberg 1.9.1-amzn-0, Presto 0.287-amzn-5, Spark 3.5.6-amzn-0, TensorFlow 2.19.0, Tez 0.18-amzn-10이 포함됩니다 ZooKeeper .
  + Amazon EMR on EC2에서 이제 IAM Identity Center 사용자 백그라운드 세션 지원
    + **사용자 백그라운드 세션**: 사용자가 SageMaker Unified Studio에서 로그오프한 후에도 장기 실행 Spark 워크로드가 계속 실행되도록 하여 최대 90일의 세션 지원
    + **유연한 백그라운드 세션 구성**: 사용자 지정 가능한 백그라운드 세션 기간이 15분\$190일(기본값: 7일)인 2단계 구성(IAM Identity Center 인스턴스 및 Amazon EMR-EC2 클러스터)
    + **신뢰할 수 있는 자격 증명 전파**: Amazon EMR의 신뢰할 수 있는 자격 증명 전파 기능을 사용하여 백그라운드 세션 수명 주기 동안 보안 자격 증명 컨텍스트를 유지합니다.
    + **SageMaker Unified Studio 통합**: SageMaker Unified Studio의 Livy 대화형 세션을 통해 시작된 백그라운드 세션
  + **기업 자격 증명이 있는 장기 실행 세션** - Amazon SageMaker Unified Studio는 이제 IAM Identity Center의 신뢰할 수 있는 자격 증명 전파(TIP)를 통해 기업 자격 증명이 있는 장기 실행 세션을 지원합니다. 사용자는 로그오프되거나 세션이 만료되더라도 회사 자격 증명을 사용하여 지속되는 Amazon EMR 및 AWS Glue에서 대화형 노트북 및 데이터 처리 세션을 시작할 수 있습니다. 세션은 자격 증명 권한과 일관된 보안 제어를 유지하면서 최대 90일(기본값 7일) 동안 실행됩니다.

## 7.11.0 기본 Java 버전
<a name="emr-7110-jdk"></a>

Amazon EMR 릴리스 7.11.0은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.11.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.11.0 구성 요소 버전
<a name="emr-7110-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.3.2-amzn-0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.20.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.24.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.18.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.41.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.20.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.5 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.72.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.20.0-amzn-5 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.20.0-amzn-5 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.1-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.1-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.1-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.1-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-zkfc | 3.4.1-amzn-3 | HA 모드의 네임노드를 추적하기 위한 ZKFC 서비스입니다. | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-3 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.1-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.1-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.1-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.6.2-amzn-2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.6.2-amzn-2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.6.2-amzn-2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.6.2-amzn-2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.6.2-amzn-2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.6.2-amzn-2 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-20 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-20 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-20 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-20 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-20 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-20 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-20 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 1.0.2-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 1.0.2-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 1.0.2-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 1.0.2-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.9.1-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.5.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.1 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-5 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-5 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-5 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 475-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 475-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 475-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.6-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.6-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.6-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.6-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 25.06.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| tensorflow | 2.19.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-18 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-18 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.3-amzn-3 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.3-amzn-3 | ZooKeeper 명령줄 클라이언트. | 

## 7.11.0 구성 분류
<a name="emr-7110-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.11.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j2 | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| cloudwatch-logs | EMR 클러스터 노드에 대한 CloudWatch Logs 통합을 구성합니다. | Not available. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.11.0 변경 로그
<a name="7110-changelog"></a>


**7.11.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-11-12 | 문서 게시 | Amazon EMR 7.11.0 릴리스 정보 최초 게시 | 

# Amazon EMR 릴리스 7.10.0
<a name="emr-7100-release"></a>

## 7.10.0 지원 수명 주기
<a name="emr-7100-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.10.0에서 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2025년 8월 15일 | 
| 표준 지원 종료 시점 | 2027년 8월 15일 | 
| 지원 종료 | 2027년 8월 16일 | 
| 수명 종료 | 2028년 8월 15일 | 

## 7.10.0 애플리케이션 버전
<a name="emr-7100-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.10.0 | emr-7.9.0 | emr-7.8.0 | emr-7.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.31.48, 1.12.782 | 2.31.16, 1.12.782 | 2.29.52, 1.12.780 | 2.29.44, 1.12.780 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.3.0-amzn-2 | 3.3.0-amzn-1 | 3.3.0-amzn-0 | 3.2.1-amzn-2 | 
| Flink | 1.20.0-amzn-4 | 1.20.0-amzn-3 | 1.20.0-amzn-2 | 1.20.0-amzn-1 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-1 | 2.6.2-amzn-0 | 2.6.1-amzn-2 | 2.6.1-amzn-1 | 
| HCatalog | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 
| Hadoop | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-3 | 
| Hive | 3.1.3-amzn-19 | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 
| Hudi | 0.15.0-amzn-7 | 0.15.0-amzn-6 | 0.15.0-amzn-5 | 0.15.0-amzn-4 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.8.1-amzn-0 | 1.7.1-amzn-2 | 1.7.1-amzn-1 | 1.7.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-4 | 0.287-amzn-3 | 0.287-amzn-2 | 0.287-amzn-1 | 
| Spark | 3.5.5-amzn-1 | 3.5.5-amzn-0 | 3.5.4-amzn-0 | 3.5.3-amzn-1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.18.0 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-17 | 0.10.2-amzn-16 | 0.10.2-amzn-15 | 0.10.2-amzn-14 | 
| Trino (PrestoSQL) | 470-amzn-0 | 467-amzn-2 | 467-amzn-1 | 467-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-2 | 3.9.3-amzn-1 | 3.9.3-amzn-0 | 3.9.2-amzn-1 | 

# 7.10.0 일반적인 취약성 및 노출
<a name="7100-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.10.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2025년 9월 25일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-10202  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10202](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-42889  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42889](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2024-51504  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-51504  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-52577  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52577](https://nvd.nist.gov/vuln/detail/CVE-2024-52577)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2024-56325  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56325](https://nvd.nist.gov/vuln/detail/CVE-2024-56325)  | 
|  CVE-2025-30065  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30065](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)  | 
|  CVE-2014-3643  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2014-3643](https://nvd.nist.gov/vuln/detail/CVE-2014-3643)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-10172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10172](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-41404  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41404](https://nvd.nist.gov/vuln/detail/CVE-2022-41404)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-13009  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-13009](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)  | 
|  CVE-2024-13009  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-13009](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)  | 
|  CVE-2024-29131  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29131](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-36114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-36114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-47561  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-57699  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-57699](https://nvd.nist.gov/vuln/detail/CVE-2024-57699)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-9823  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-9823](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)  | 
|  CVE-2025-1948  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-1948](https://nvd.nist.gov/vuln/detail/CVE-2025-1948)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-27553  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27553](https://nvd.nist.gov/vuln/detail/CVE-2025-27553)  | 
|  CVE-2025-27817  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27817](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)  | 
|  CVE-2025-27817  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27817](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)  | 
|  CVE-2025-27817  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27817](https://nvd.nist.gov/vuln/detail/CVE-2025-27817)  | 
|  CVE-2025-27820  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27820](https://nvd.nist.gov/vuln/detail/CVE-2025-27820)  | 
|  CVE-2025-27820  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27820](https://nvd.nist.gov/vuln/detail/CVE-2025-27820)  | 
|  CVE-2025-30706  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30706](https://nvd.nist.gov/vuln/detail/CVE-2025-30706)  | 
|  CVE-2025-30706  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30706](https://nvd.nist.gov/vuln/detail/CVE-2025-30706)  | 
|  CVE-2025-46762  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46762](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)  | 
|  CVE-2025-48734  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48734](https://nvd.nist.gov/vuln/detail/CVE-2025-48734)  | 
|  CVE-2025-48734  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48734](https://nvd.nist.gov/vuln/detail/CVE-2025-48734)  | 
|  CVE-2025-49146  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49146](https://nvd.nist.gov/vuln/detail/CVE-2025-49146)  | 
|  CVE-2025-5115  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-5115](https://nvd.nist.gov/vuln/detail/CVE-2025-5115)  | 
|  CVE-2025-52434  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52434](https://nvd.nist.gov/vuln/detail/CVE-2025-52434)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-52999  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-52999](https://nvd.nist.gov/vuln/detail/CVE-2025-52999)  | 
|  CVE-2025-55163  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-55163](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)  | 
|  CVE-2025-55163  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-55163](https://nvd.nist.gov/vuln/detail/CVE-2025-55163)  | 
|  CVE-2025-58056  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58056](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)  | 
|  CVE-2025-58056  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58056](https://nvd.nist.gov/vuln/detail/CVE-2025-58056)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2025-58057  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58057](https://nvd.nist.gov/vuln/detail/CVE-2025-58057)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-1313  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2020-13955  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-27568  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2021-36374  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2022-38749  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-41854  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2023-0833  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-23944  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23953  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-23953  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-29025  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-29133  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29133](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)  | 
|  CVE-2024-29869  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-29869  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-31141  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-52980  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52980](https://nvd.nist.gov/vuln/detail/CVE-2024-52980)  | 
|  CVE-2024-56128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-8184  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2025-22227  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-22227](https://nvd.nist.gov/vuln/detail/CVE-2025-22227)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-30474  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30474](https://nvd.nist.gov/vuln/detail/CVE-2025-30474)  | 
|  CVE-2025-3588  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-3588](https://nvd.nist.gov/vuln/detail/CVE-2025-3588)  | 
|  CVE-2025-46392  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46392](https://nvd.nist.gov/vuln/detail/CVE-2025-46392)  | 
|  CVE-2025-46551  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46551](https://nvd.nist.gov/vuln/detail/CVE-2025-46551)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-48924  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-48924](https://nvd.nist.gov/vuln/detail/CVE-2025-48924)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-49128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-49128](https://nvd.nist.gov/vuln/detail/CVE-2025-49128)  | 
|  CVE-2025-53864  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-53864](https://nvd.nist.gov/vuln/detail/CVE-2025-53864)  | 
|  CVE-2025-53864  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-53864](https://nvd.nist.gov/vuln/detail/CVE-2025-53864)  | 
|  CVE-2025-58457  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58457](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)  | 
|  CVE-2025-58457  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58457](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)  | 
|  CVE-2025-58457  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-58457](https://nvd.nist.gov/vuln/detail/CVE-2025-58457)  | 
|  CVE-2025-8885  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8885](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)  | 
|  CVE-2025-8885  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8885](https://nvd.nist.gov/vuln/detail/CVE-2025-8885)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2025-8916  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-8916](https://nvd.nist.gov/vuln/detail/CVE-2025-8916)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2025-27496  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27496](https://nvd.nist.gov/vuln/detail/CVE-2025-27496)  | 

## 7.10.0 릴리스 정보
<a name="emr-7100-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.10.0에 대한 정보가 포함되어 있습니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.10.0 application upgrades include AWS SDK for Java 2.31.48/1.12.782, Delta 3.3.0-amzn-2, Hadoop 3.4.1-amzn-2, Hudi 0.15.0-amzn-7, Iceberg 1.8.1-amzn-0, Spark 3.5.5-amzn-1, and Zookeeper 3.9.3-amzn-2.
+ **S3A 파일 시스템** - EMR 7.10.0 릴리스부터 S3A 파일 시스템은 EMRFS를 기본 EMR S3 커넥터로 대체했습니다. 자세한 내용은 [마이그레이션 가이드: EMRFS에서 S3A Filesystem으로 마이그레이션](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-s3a-migrate.html)을 참조하세요.
+ **Spark Kafka 스트리밍 지원** - EMR 7.10.0 릴리스부터 Kafka 데이터 소스를 사용하는 Spark 스트리밍 워크로드에는 aws-msk-iam-auth 2.3.2 및 commons-pool2 2.11.1 종속성이 포함됩니다. 이러한 JARs은 클러스터 시작 시 Spark 애플리케이션을 선택한 경우 사용할 수 있습니다.
+ **Flink 스트리밍 커넥터** - EMR 7.10.0 릴리스부터 Kafka 및 Kinesis 데이터 소스를 사용하는 Flink 스트리밍 워크로드에는 flink-sql-connector-kafka 3.4.0, flink-sql-connector-kinesis 5.0.0 및 aws-msk-iam-auth 2.3.2가 포함되어 있습니다. 이러한 커넥터 JARs은 클러스터 시작 시 Flink 애플리케이션을 선택한 경우 사용할 수 있습니다.

**알려진 문제**
+ **수락 상태** - 오픈 소스 버그 [YARN-11834](https://issues.apache.org/jira/browse/YARN-11834)로 인해 YARN 애플리케이션이 수락 상태에서 멈췄습니다. 이 문제가 발생하면 AWS 지원 팀에 문의하세요.
+ **ConcurrentModificationException 예외** - 오픈 소스 버그 [YARN-11838](https://issues.apache.org/jira/browse/YARN-11838)로 인해 ConcurrentModificationException 예외가 발생하여 YARN이 자주 다시 시작됩니다. 이 문제가 발생하면 AWS 지원 팀에 문의하세요.
+ **YARN 애플리케이션 로그** - Resource Manager UI를 통해 YARN 애플리케이션 로그가 표시되지 않습니다. 문제를 해결하려면 다음 단계를 따르세요.

  1. yarn-site.xml의 `yarn.log.server.url` 구성을 다음 값으로 업데이트합니다.

     ```
     <property>
       <name>yarn.log.server.url</name>
       <value>https://<private-dns-master-node>:19890/jobhistory/logs</value>
     </property>
     ```

  1. hadoop 리소스 관리자 서비스 `systemctl restart hadoop-resourcemanager.service`를 다시 시작합니다.
+ **단계 로그 업로드 **- 일부 클러스터는 경합 조건으로 인해 단계 로그를 S3 버킷에 업로드하지 못할 수 있습니다. 이 문제가 발생하면 AWS 지원 팀에 문의하세요.
+  **Glue 카탈로그를 사용하여 HBase 테이블을 Hive에 생성** - EMR-7.3.0에서 EMR-7.10.0으로의 Hive Iceberg 통합으로 인해 버그가 발생하여 Glue Data Catalog를 메타스토어로 사용할 때 Hive에서 HBase 테이블 생성이 실패합니다. 이 문제가 발생하면 AWS 지원 팀에 문의하십시오.
+  **Tez UI** - EMR-7.3에서 EMR-7.10까지, 전송 중 암호화가 활성화된 경우 YARN Resource Manager Web UI를 통해 Tez UI에 액세스하지 못하는 버그가 있습니다. 이 문제는 Tez UI에 HTTPS가 필요한 동안 YARN 프록시가 HTTP 프로토콜을 사용하려고 시도하기 때문에 발생합니다. 이 문제를 해결하려면 `tez-site`의 `tez.tez-ui.history-url.base` 구성을 `http`에서 `https`로 수정하세요.
+ 레이블 및 지원되는 리전을 릴리스합니다.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-7100-release.html)

## 7.10.0 기본 Java 버전
<a name="emr-7100-jdk"></a>

Amazon EMR 릴리스 7.10 이상은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.10.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.10.0 구성 요소 버전
<a name="emr-7100-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.3.0-amzn-2 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.19.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.23.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.18.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.40.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.19.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.4 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.71.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.20.0-amzn-4 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.20.0-amzn-4 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.1-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.1-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.1-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.1-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-2 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.1-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.1-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.1-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.6.2-amzn-1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.6.2-amzn-1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.6.2-amzn-1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.6.2-amzn-1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.6.2-amzn-1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.6.2-amzn-1 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-19 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-19 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-19 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-19 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-19 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-19 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-19 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.15.0-amzn-7 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.15.0-amzn-7 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.15.0-amzn-7 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.15.0-amzn-7 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.8.1-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.5.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.1 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-4 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-4 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-4 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 470-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 470-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 470-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.5-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.5-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.5-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.5-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 3.5.5-amzn-1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| tensorflow | 2.18.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-17 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-17 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.3-amzn-2 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.3-amzn-2 | ZooKeeper 명령줄 클라이언트. | 

## 7.10.0 구성 분류
<a name="emr-7100-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.10.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j2 | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.10.0 변경 로그
<a name="7100-changelog"></a>


**7.10.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-08-15 | 문서 게시 | Amazon EMR 7.10.0 릴리스 정보가 처음 게시됨 | 
| 2025-08-15 | 배포 완료 | [지원되는 모든 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.10.0 완전 배포 | 
| 2025-08-15 | 초기 제한 릴리스 | Amazon EMR 7.10.0이 초기 상용 리전에 처음 배포됨 | 

# Amazon EMR 릴리스 7.9.0
<a name="emr-790-release"></a>

## 7.9.0 지원 수명 주기
<a name="emr-790-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.9.0에 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2025년 5월 19일 | 
| 표준 지원 종료 시점 | 2027년 5월 19일 | 
| 지원 종료 | 2027년 5월 20일 | 
| 수명 종료 | 2028년 5월 19일 | 

## 7.9.0 애플리케이션 버전
<a name="emr-790-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.9.0 | emr-7.8.0 | emr-7.7.0 | emr-7.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.31.16, 1.12.782 | 2.29.52, 1.12.780 | 2.29.44, 1.12.780 | 2.29.25, 1.12.779 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.3.0-amzn-1 | 3.3.0-amzn-0 | 3.2.1-amzn-2 | 3.2.1-amzn-1 | 
| Flink | 1.20.0-amzn-3 | 1.20.0-amzn-2 | 1.20.0-amzn-1 | 1.20.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.2-amzn-0 | 2.6.1-amzn-2 | 2.6.1-amzn-1 | 2.6.1-amzn-0 | 
| HCatalog | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 
| Hadoop | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-3 | 3.4.0-amzn-2 | 
| Hive | 3.1.3-amzn-18 | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 
| Hudi | 0.15.0-amzn-6 | 0.15.0-amzn-5 | 0.15.0-amzn-4 | 0.15.0-amzn-3 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.7.1-amzn-2 | 1.7.1-amzn-1 | 1.7.1-amzn-0 | 1.6.1-amzn-2 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-3 | 0.287-amzn-2 | 0.287-amzn-1 | 0.287-amzn-1 | 
| Spark | 3.5.5-amzn-0 | 3.5.4-amzn-0 | 3.5.3-amzn-1 | 3.5.3-amzn-0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-16 | 0.10.2-amzn-15 | 0.10.2-amzn-14 | 0.10.2-amzn-13 | 
| Trino (PrestoSQL) | 467-amzn-2 | 467-amzn-1 | 467-amzn-0 | 457-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-1 | 3.9.3-amzn-0 | 3.9.2-amzn-1 | 3.9.2-amzn-0 | 

# 7.9.0 일반적인 취약성 및 노출
<a name="790-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.9.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2025년 5월 12일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-10202  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10202](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-42889  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42889](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2024-51504  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-51504  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-52577  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52577](https://nvd.nist.gov/vuln/detail/CVE-2024-52577)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2024-56325  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56325](https://nvd.nist.gov/vuln/detail/CVE-2024-56325)  | 
|  CVE-2025-30065  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30065](https://nvd.nist.gov/vuln/detail/CVE-2025-30065)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-10172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10172](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-13009  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-13009](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)  | 
|  CVE-2024-13009  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-13009](https://nvd.nist.gov/vuln/detail/CVE-2024-13009)  | 
|  CVE-2024-29131  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29131](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-36114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-36114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-47561  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-57699  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-57699](https://nvd.nist.gov/vuln/detail/CVE-2024-57699)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2025-1948  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-1948](https://nvd.nist.gov/vuln/detail/CVE-2025-1948)  | 
|  CVE-2025-1948  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-1948](https://nvd.nist.gov/vuln/detail/CVE-2025-1948)  | 
|  CVE-2025-24789  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24789](https://nvd.nist.gov/vuln/detail/CVE-2025-24789)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-24970  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-27553  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27553](https://nvd.nist.gov/vuln/detail/CVE-2025-27553)  | 
|  CVE-2025-27820  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27820](https://nvd.nist.gov/vuln/detail/CVE-2025-27820)  | 
|  CVE-2025-27820  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27820](https://nvd.nist.gov/vuln/detail/CVE-2025-27820)  | 
|  CVE-2025-46762  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46762](https://nvd.nist.gov/vuln/detail/CVE-2025-46762)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-1313  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2020-13955  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22570  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-22570  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-27568  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2021-36374  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2022-38749  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-41854  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2023-0833  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-23944  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23953  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-23953  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-29025  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-29133  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29133](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)  | 
|  CVE-2024-29869  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-29869  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-31141  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-43382  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-43382](https://nvd.nist.gov/vuln/detail/CVE-2024-43382)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-52980  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52980](https://nvd.nist.gov/vuln/detail/CVE-2024-52980)  | 
|  CVE-2024-56128  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-8184  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2024-9823  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-9823](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)  | 
|  CVE-2025-24790  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24790](https://nvd.nist.gov/vuln/detail/CVE-2025-24790)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-30474  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-30474](https://nvd.nist.gov/vuln/detail/CVE-2025-30474)  | 
|  CVE-2025-3588  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-3588](https://nvd.nist.gov/vuln/detail/CVE-2025-3588)  | 
|  CVE-2025-46551  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46551](https://nvd.nist.gov/vuln/detail/CVE-2025-46551)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2025-27496  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-27496](https://nvd.nist.gov/vuln/detail/CVE-2025-27496)  | 
|  CVE-2025-46392  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-46392](https://nvd.nist.gov/vuln/detail/CVE-2025-46392)  | 

## 7.9.0 릴리스 정보
<a name="emr-790-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.9.0에 대한 정보가 포함되어 있습니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.9.0 application upgrades include AWS SDK for Java 2.31.16/1.12.782, Delta 3.3.0-amzn-1, Hadoop 3.4.1, Hudi 0.15.0-amzn-6, Iceberg 1.7.1-amzn-2, Spark 3.5.5, and Zookeeper 3.9.3.
+ **영구 앱 UI에 대한 CM-CMK 지원** - 이 기능은 고객 관리형 사용자 지정 마스터 키(CM-CMK)를 준수하기 위해 EMR 서비스 버킷에서 관리되는 로그에 적용되는 SSE 암호화를 확장합니다. 이 기능을 통해 고객은 클러스터 종료 후 로그의 접근성을 관리할 수 있습니다.

**알려진 문제**
+ EC2의 EMR에 대한 로깅 옵션을 비활성화하면 클러스터가 종료되고 영구 애플리케이션 UI가 포함되지 않은 후에는 로그를 사용할 수 없습니다.
+ **EMR-EC2 SecretAgent 구성 요소를 사용한 KMS 암호화** - EMR 버전 7.8 및 7.9에서 Lake Formation 지원 클러스터에 대해 저장된 KMS 암호화를 활성화할 때 발생하는 오류가 있습니다. Lake Formation 지원 작업이 경우 *NoSuchMethodError*가 발생하면서 실패합니다. 다음의 두 가지 해결 방법을 사용할 수 있습니다.
  + 영향을 받는 클러스터에 대해 미사용 시 KMS 암호화를 일시적으로 비활성화합니다.
  + KMS 암호화를 유지해야 하는 경우 AWS Support에 문의하여 부트스트랩 작업 아티팩트를 요청합니다.
**참고**  
**영구 수정** - 2025년 8월에 위의 문제를 해결하기 위한 업데이트가 모든 리전에 배포되었습니다. 미사용 시 KMS 암호화를 비활성화할 필요가 없습니다.
+ **단계 로그 업로드 **- 일부 클러스터는 경합 조건으로 인해 단계 로그를 S3 버킷에 업로드하지 못할 수 있습니다. 이 문제가 발생하면 AWS 지원 팀에 문의하세요.
+  **Glue 카탈로그를 사용하여 HBase 테이블을 Hive에 생성** - EMR-7.3.0에서 EMR-7.10.0으로의 Hive Iceberg 통합으로 인해 버그가 발생하여 Glue Data Catalog를 메타스토어로 사용할 때 Hive에서 HBase 테이블 생성이 실패합니다. 이 문제가 발생하면 AWS 지원 팀에 문의하십시오.
+  **Tez UI** - EMR-7.3에서 EMR-7.10까지, 전송 중 암호화가 활성화된 경우 YARN Resource Manager Web UI를 통해 Tez UI에 액세스하지 못하는 버그가 있습니다. 이 문제는 Tez UI에 HTTPS가 필요한 동안 YARN 프록시가 HTTP 프로토콜을 사용하려고 시도하기 때문에 발생합니다. 이 문제를 해결하려면 `tez-site`의 `tez.tez-ui.history-url.base` 구성을 `http`에서 `https`로 수정하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ *Oozie 사용 중단* - OSS Oozie가 Attic 모드로 전환되었으므로 Amazon EMR 릴리스 8.x 시리즈에서 Apache Oozie가 제거될 예정입니다. Oozie는 계속해서 7.x 시리즈의 일부로 포함됩니다. Oozie 대신 MWAA를 사용하는 것이 좋습니다. 고객은 GitHub의 유틸리티 [oozie-to-airflow-emr](https://github.com/dgghosalaws/oozie-to-airflow-emr)를 참조하여 기존 Oozie 워크플로를 MWAA로 마이그레이션할 수 있습니다.
+ *YARN 컨테이너 빈 패킹* - Amazon EMR 버전 7.9.0부터 YARN의 다중 노드 배치 정책을 기반으로 구축된 YARN 용량 스케줄러에 컨테이너 빈 패킹 정책을 사용할 수 있습니다.
+  *hudi-cli.sh* - EMR 릴리스 7.9.0 이상에서는 **hudi-cli.sh** 스크립트가 더 이상 사용되지 않습니다. Amazon EMR 릴리스 7.9.0 이상에서는 **hudi-cli-bundle.jar**을 사용합니다.
+ *FIPS 지원 AL2023 AMI의 EMR 클러스터* - EMR 7.9부터 고객은 [FIPS 지원 AL2023 AMI](https://docs.aws.amazon.com/linux/al2023/ug/fips-mode.html)에서 EMR 클러스터를 시작할 수 있습니다. 이 변경 사항은 EMR의 디지털 서명 및 해시 알고리즘을 업데이트하여 모든 EMR 패키지가 FIPS 140-3에 대한 권장 암호화 정책을 준수하도록 합니다. 참고: EMR 또는 AL2023의 FIPS 인증 상태는 여기에 포함되지 않습니다. FIPS 140-3 검증 상태에 대한 최신 정보는 [AL2023 FIPS FAQ](https://aws.amazon.com/linux/amazon-linux-2023/faqs/)를 참조하세요.
+  *단계 지연 시간* - 이 릴리스에서는 설치를 위해 Hadoop 애플리케이션을 명시적으로 선택하지 않고 전송 중 데이터 암호화를 사용할 때 단계 지연 시간이 증가하는 문제를 해결합니다.
+  *EBS 암호화 볼륨을 사용한 클러스터 시작* - 이 릴리스에서는 EBS 암호화 볼륨에 대한 KMS 호출로 인해 EMR 클러스터 시작이 실패할 수 있는 문제를 해결합니다.
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-790-release.html)

## 7.9.0 기본 Java 버전
<a name="emr-790-jdk"></a>

Amazon EMR 릴리스 7.9 이상은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.9.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.9.0 구성 요소 버전
<a name="emr-790-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.3.0-amzn-1 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.18.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.22.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.18.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.39.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.18.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.4 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.70.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.20.0-amzn-3 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.20.0-amzn-3 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.1-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.1-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.1-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.1-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.1-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.1-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.1-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.6.2-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.6.2-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.6.2-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.6.2-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.6.2-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.6.2-amzn-0 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-18 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-18 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-18 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-18 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-18 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-18 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-18 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.15.0-amzn-6 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.15.0-amzn-6 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.15.0-amzn-6 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.15.0-amzn-6 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.7.1-amzn-2 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.3.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.1 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-3 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-3 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-3 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 467-amzn-2 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 467-amzn-2 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 467-amzn-2 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.5-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.5-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.5-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.5-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 25.02.1-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| tensorflow | 2.16.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-16 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-16 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.3-amzn-1 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.3-amzn-1 | ZooKeeper 명령줄 클라이언트. | 

## 7.9.0 구성 분류
<a name="emr-790-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.9.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j2 | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.9.0 변경 로그
<a name="790-changelog"></a>


**7.9.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-05-19 | 문서 게시 | Amazon EMR 7.9.0 릴리스 정보가 처음 게시됨 | 
| 2025-05-19 | 배포 완료 | [지원되는 모든 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.9.0 완전 배포 | 
| 2025-05-19 | 초기 제한 릴리스 | Amazon EMR 7.9.0이 초기 상용 리전에 처음 배포됨 | 

# Amazon EMR 릴리스 7.8.0
<a name="emr-780-release"></a>

## 7.8.0 지원 수명 주기
<a name="emr-780-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.8.0에 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2025년 3월 7일 | 
| 표준 지원 종료 시점 | 2027년 3월 6일 | 
| 지원 종료 | 2027년 3월 7일 | 
| 수명 종료 | 2028년 3월 7일 | 

## 7.8.0 애플리케이션 버전
<a name="emr-780-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.8.0 | emr-7.7.0 | emr-7.6.0 | emr-7.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.29.52, 1.12.780 | 2.29.44, 1.12.780 | 2.29.25, 1.12.779 | 2.28.8, 1.12.772 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.3.0-amzn-0 | 3.2.1-amzn-2 | 3.2.1-amzn-1 | 3.2.1-amzn-0 | 
| Flink | 1.20.0-amzn-2 | 1.20.0-amzn-1 | 1.20.0-amzn-0 | 1.19.1-amzn-1 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.1-amzn-2 | 2.6.1-amzn-1 | 2.6.1-amzn-0 | 2.5.10-amzn-0 | 
| HCatalog | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 
| Hadoop | 3.4.1-amzn-0 | 3.4.0-amzn-3 | 3.4.0-amzn-2 | 3.4.0-amzn-1 | 
| Hive | 3.1.3-amzn-17 | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 
| Hudi | 0.15.0-amzn-5 | 0.15.0-amzn-4 | 0.15.0-amzn-3 | 0.15.0-amzn-2 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.7.1-amzn-1 | 1.7.1-amzn-0 | 1.6.1-amzn-2 | 1.6.1-amzn-1 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-2 | 0.287-amzn-1 | 0.287-amzn-1 | 0.287-amzn-0 | 
| Spark | 3.5.4-amzn-0 | 3.5.3-amzn-1 | 3.5.3-amzn-0 | 3.5.2-amzn-1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-15 | 0.10.2-amzn-14 | 0.10.2-amzn-13 | 0.10.2-amzn-12 | 
| Trino (PrestoSQL) | 467-amzn-1 | 467-amzn-0 | 457-amzn-0 | 446-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.3-amzn-0 | 3.9.2-amzn-1 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 

# 7.8.0 릴리스 구성 요소 세부 정보
<a name="emr-780-release-components-details"></a>

Amazon EMR 7.7.0의 *추가* 패키지에 대한 자세한 내용은 다음 표를 참조하세요.


| 애플리케이션 | 애플리케이션 유형 | 패키지 | 패키지 유형 | 패키지 버전 | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  s3-dist-cp  |  추가 항목  |  2.38.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper  |  추가 항목  |  3.9.3-amzn-0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.3-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-client  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-kms  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Flink  |  Core  |  hudi  |  추가 항목  |  0.15.0-amzn-5-1.amzn2023  | 
|  Flink  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  HBase  |  Core  |  s3-dist-cp  |  추가 항목  |  2.38.0-1.amzn2023  | 
|  HCatalog  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  HCatalog  |  Core  |  mariadb-connector-java  |  추가 항목  |    | 
|  Hive  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Hive  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Hive  |  Core  |  hive-hbase  |  추가 항목  |  3.1.3-amzn-17-1.amzn2023  | 
|  Hive  |  Core  |  mariadb-connector-java  |  추가 항목  |  3.1.3-amzn-17-1  | 
|  Hive  |  Core  |  s3-dist-cp  |  추가 항목  |  2.38.0-1.amzn2023  | 
|  피닉스  |  Core  |  s3-dist-cp  |  추가 항목  |  2.38.0-1.amzn2023  | 
|  Spark  |  Core  |  spark-datanucleus  |  추가 항목  |  3.5.3.amzn.1-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.1-amzn-0-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-utils  |  추가 항목  |  1.2.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-client  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-kms  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hive  |  추가 항목  |  3.1.3.amzn.17-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog-server  |  추가 항목  |  3.1.3.amzn.17-1.amzn2023  | 
|  Trino  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Trino  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-groovy  |  추가 항목  |  2.5.4-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-jsvc  |  추가 항목  |  1.2.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-lzo  |  추가 항목  |  0.4.19-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog  |  추가 항목  |  3.1.3.amzn.17-1.amzn2023  | 
|  Trino  |  Core  |  hive-jdbc  |  추가 항목  |  3.1.3.amzn.17-1.amzn2023  | 
|  Zookeeper  |  Core  |  emrfs  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-client  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-kms  |  추가 항목  |  3.9.3.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.1.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 

# 7.8.0 일반적인 취약성 및 노출
<a name="780-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.8.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2025년 3월 6일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-10202  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10202](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-42889  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42889](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-10172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10172](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13936  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13936](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20883  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-1313  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2019-10219  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10219](https://nvd.nist.gov/vuln/detail/CVE-2019-10219)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2020-10693  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10693](https://nvd.nist.gov/vuln/detail/CVE-2020-10693)  | 
|  CVE-2020-13955  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-29582  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-29582](https://nvd.nist.gov/vuln/detail/CVE-2020-29582)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22570  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-22570  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-27568  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2021-36374  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2021-38153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-38153](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)  | 
|  CVE-2022-24329  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-24329](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)  | 
|  CVE-2022-38749  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-41854  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2023-0833  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-20863  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-42503  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-38820  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38820](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)  | 
|  CVE-2024-38820  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38820](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-8184  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  GHSA-chfm-68vv-pvw5  |  낮음  |  [https://nvd.nist.gov/vuln/detail/GHSA-chfm-68vv-pvw5](https://nvd.nist.gov/vuln/detail/GHSA-chfm-68vv-pvw5)  | 
|  CVE-2024-23454  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23454](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)  | 
|  CVE-2024-23944  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23945  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23945  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23953  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-23953  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-27137  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-27137](https://nvd.nist.gov/vuln/detail/CVE-2024-27137)  | 
|  CVE-2024-29025  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-29131  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29131](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)  | 
|  CVE-2024-29133  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29133](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29869  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-29869  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30172  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-30172  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-31141  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-31141  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-34447  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-34447  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-38808  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38808](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)  | 
|  CVE-2024-47535  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-51504  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-51504  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-56128  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-56128  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-57699  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-57699](https://nvd.nist.gov/vuln/detail/CVE-2024-57699)  | 
|  CVE-2024-9823  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-9823](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)  | 
|  CVE-2025-23015  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-23015](https://nvd.nist.gov/vuln/detail/CVE-2025-23015)  | 
|  CVE-2025-24860  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24860](https://nvd.nist.gov/vuln/detail/CVE-2025-24860)  | 
|  CVE-2025-24970  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-24970  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-24970  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-24970  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24970](https://nvd.nist.gov/vuln/detail/CVE-2025-24970)  | 
|  CVE-2025-25193  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 
|  CVE-2025-25193  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-25193](https://nvd.nist.gov/vuln/detail/CVE-2025-25193)  | 

## 7.8.0 릴리스 정보
<a name="emr-780-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.8.0에 대한 정보가 포함되어 있습니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.8.0 application upgrades include AWS SDK for Java 2.29.52/1.12.780, Delta 3.3.0-amzn-0, Hadoop 3.4.1, Hudi 0.15.0-amzn-5, Iceberg 1.7.1-amzn-1, Spark 3.5.4, and Zookeeper 3.9.3.

**알려진 문제**
+ **EMR-EC2 SecretAgent 구성 요소를 사용한 KMS 암호화** - EMR 버전 7.8 및 7.9에서 Lake Formation 지원 클러스터에 대해 저장된 KMS 암호화를 활성화할 때 발생하는 오류가 있습니다. Lake Formation 지원 작업이 경우 *NoSuchMethodError*가 발생하면서 실패합니다. 다음의 두 가지 해결 방법을 사용할 수 있습니다.
  + 영향을 받는 클러스터에 대해 미사용 시 KMS 암호화를 일시적으로 비활성화합니다.
  + KMS 암호화를 유지해야 하는 경우 AWS Support에 문의하여 부트스트랩 작업 아티팩트를 요청합니다.
**참고**  
**수정 업데이트** - 2025년 8월, 위의 문제를 해결하기 위한 업데이트가 모든 리전에 배포되었습니다. 미사용 시 KMS 암호화를 비활성화할 필요가 없습니다.
+  **Glue 카탈로그를 사용하여 HBase 테이블을 Hive에 생성** - EMR-7.3.0에서 EMR-7.10.0으로의 Hive Iceberg 통합으로 인해 버그가 발생하여 Glue Data Catalog를 메타스토어로 사용할 때 Hive에서 HBase 테이블 생성이 실패합니다. 이 문제가 발생하면 AWS 지원 팀에 문의하십시오.
+  **Tez UI** - EMR-7.3에서 EMR-7.10까지, 전송 중 암호화가 활성화된 경우 YARN Resource Manager Web UI를 통해 Tez UI에 액세스하지 못하는 버그가 있습니다. 이 문제는 Tez UI에 HTTPS가 필요한 동안 YARN 프록시가 HTTP 프로토콜을 사용하려고 시도하기 때문에 발생합니다. 이 문제를 해결하려면 `tez-site`의 `tez.tez-ui.history-url.base` 구성을 `http`에서 `https`로 수정하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-780-release.html)

## 7.8.0 기본 Java 버전
<a name="emr-780-jdk"></a>

Amazon EMR 릴리스 7.8 이상은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.8.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.8.0 구성 요소 버전
<a name="emr-780-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.3.0-amzn-0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.17.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.21.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.18.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.38.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.17.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.3 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.69.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.20.0-amzn-2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.20.0-amzn-2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.1-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.1-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.1-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.1-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.4.1-amzn-0 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.1-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.1-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.1-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.1-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.1-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.1-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.6.1-amzn-2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.6.1-amzn-2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.6.1-amzn-2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.6.1-amzn-2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.6.1-amzn-2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.6.1-amzn-2 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-17 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-17 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-17 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-17 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-17 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-17 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-17 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.15.0-amzn-5 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.15.0-amzn-5 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.15.0-amzn-5 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.15.0-amzn-5 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.7.1-amzn-1 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.3.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.1 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-2 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-2 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-2 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 467-amzn-1 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 467-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 467-amzn-1 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.4-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.4-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.4-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.4-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 24.12.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| tensorflow | 2.16.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-15 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-15 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.3-amzn-0 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.3-amzn-0 | ZooKeeper 명령줄 클라이언트. | 

## 7.8.0 구성 분류
<a name="emr-780-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.8.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.8.0 변경 로그
<a name="780-changelog"></a>


**7.8.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-03-07 | 문서 게시 | Amazon EMR 7.8.0 릴리스 정보 최초 게시 | 
| 2025-03-06 | 배포 완료 | [지원되는 모든 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.8.0 완전 배포 | 
| 2025-02-28 | 초기 제한 릴리스 | Amazon EMR 7.8.0이 초기 상용 리전에 처음 배포됨 | 

# Amazon EMR 릴리스 7.7.0
<a name="emr-770-release"></a>

## 7.7.0 지원 수명 주기
<a name="emr-770-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.7.0에 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2025년 2월 6일 | 
| 표준 지원 종료 시점 | 2027년 2월 5일 | 
| 지원 종료 | 2027년 2월 6일 | 
| 수명 종료 | 2028년 2월 6일 | 

## 7.7.0 애플리케이션 버전
<a name="emr-770-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.7.0 | emr-7.6.0 | emr-7.5.0 | emr-7.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.29.44, 1.12.780 | 2.29.25, 1.12.779 | 2.28.8, 1.12.772 | 2.28.8, 1.12.772 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.2.1-amzn-2 | 3.2.1-amzn-1 | 3.2.1-amzn-0 | 3.2.0-amzn-1 | 
| Flink | 1.20.0-amzn-1 | 1.20.0-amzn-0 | 1.19.1-amzn-1 | 1.19.1-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.1-amzn-1 | 2.6.1-amzn-0 | 2.5.10-amzn-0 | 2.5.5-amzn-0 | 
| HCatalog | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 
| Hadoop | 3.4.0-amzn-3 | 3.4.0-amzn-2 | 3.4.0-amzn-1 | 3.4.0-amzn-0 | 
| Hive | 3.1.3-amzn-16 | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 
| Hudi | 0.15.0-amzn-4 | 0.15.0-amzn-3 | 0.15.0-amzn-2 | 0.15.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.7.1-amzn-0 | 1.6.1-amzn-2 | 1.6.1-amzn-1 | 1.6.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-1 | 0.287-amzn-1 | 0.287-amzn-0 | 0.287-amzn-0 | 
| Spark | 3.5.3-amzn-1 | 3.5.3-amzn-0 | 3.5.2-amzn-1 | 3.5.2-amzn-0 | 
| Sqoop |  -  |  -  |  -  | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-14 | 0.10.2-amzn-13 | 0.10.2-amzn-12 | 0.10.2-amzn-11 | 
| Trino (PrestoSQL) | 467-amzn-0 | 457-amzn-0 | 446-amzn-0 | 446-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.2-amzn-1 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 

# 7.7.0 릴리스 구성 요소 세부 정보
<a name="emr-770-release-components-details"></a>

Amazon EMR 7.7.0의 *추가* 패키지에 대한 자세한 내용은 다음 표를 참조하세요.


| 애플리케이션 | 애플리케이션 유형 | 패키지 | 패키지 유형 | 패키지 버전 | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.0-amzn-3-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  s3-dist-cp  |  추가 항목  |  2.37.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-client  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-kms  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  hudi  |  추가 항목  |  0.15.0.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  HBase  |  Core  |  s3-dist-cp  |  추가 항목  |  2.37.0-1.amzn2023  | 
|  HCatalog  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  HCatalog  |  Core  |  mariadb-connector-java  |  추가 항목  |    | 
|  Hive  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Hive  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Hive  |  Core  |  hive-hbase  |  추가 항목  |  3.1.3.amzn.16-1.amzn2023  | 
|  Hive  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Hive  |  Core  |  s3-dist-cp  |  추가 항목  |  2.37.0-1.amzn2023  | 
|  피닉스  |  Core  |  s3-dist-cp  |  추가 항목  |  2.37.0-1.amzn2023  | 
|  Spark  |  Core  |  spark-datanucleus  |  추가 항목  |  3.5.3.amzn.1-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-utils  |  추가 항목  |  1.2.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-client  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-kms  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hive  |  추가 항목  |  3.1.3.amzn.16-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog-server  |  추가 항목  |  3.1.3.amzn.16-1.amzn2023  | 
|  Trino  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Trino  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-groovy  |  추가 항목  |  2.5.4-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-jsvc  |  추가 항목  |  1.2.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-lzo  |  추가 항목  |  0.4.19-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog  |  추가 항목  |  3.1.3.amzn.16-1.amzn2023  | 
|  Trino  |  Core  |  hive-jdbc  |  추가 항목  |  3.1.3.amzn.16-1.amzn2023  | 
|  Zookeeper  |  Core  |  emrfs  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-client  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-kms  |  추가 항목  |  3.9.2.amzn.1-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.0.amzn.3-1.amzn2023  | 
|  Zookeeper  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 

# 7.7.0 일반적인 취약성 및 노출
<a name="770-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.7.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2025년 2월 4일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-10202  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10202](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-42889  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42889](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2012-0881  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-0881](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)  | 
|  CVE-2013-4002  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2013-4002](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-10172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10172](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13936  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13936](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-43859  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-43859](https://nvd.nist.gov/vuln/detail/CVE-2021-43859)  | 
|  CVE-2022-1415  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1415](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)  | 
|  CVE-2022-1415  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1415](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40151  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40151](https://nvd.nist.gov/vuln/detail/CVE-2022-40151)  | 
|  CVE-2022-40152  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40152](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)  | 
|  CVE-2022-41966  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41966](https://nvd.nist.gov/vuln/detail/CVE-2022-41966)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45688  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45688](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20883  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-36478  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-50387  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-52428  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-52428](https://nvd.nist.gov/vuln/detail/CVE-2023-52428)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-21634](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)  | 
|  CVE-2024-35178  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-35178](https://nvd.nist.gov/vuln/detail/CVE-2024-35178)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2009-2625  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2009-2625](https://nvd.nist.gov/vuln/detail/CVE-2009-2625)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2017-10355  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-10355](https://nvd.nist.gov/vuln/detail/CVE-2017-10355)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-1313  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2018-2799  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-2799](https://nvd.nist.gov/vuln/detail/CVE-2018-2799)  | 
|  CVE-2019-10219  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10219](https://nvd.nist.gov/vuln/detail/CVE-2019-10219)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2020-10693  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10693](https://nvd.nist.gov/vuln/detail/CVE-2020-10693)  | 
|  CVE-2020-13955  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-13956  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-14338  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14338](https://nvd.nist.gov/vuln/detail/CVE-2020-14338)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-29582  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-29582](https://nvd.nist.gov/vuln/detail/CVE-2020-29582)  | 
|  CVE-2021-21290  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21290](https://nvd.nist.gov/vuln/detail/CVE-2021-21290)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22570  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-22570  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-22570  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-27568  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-29425  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2021-36374  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2021-37533  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37533](https://nvd.nist.gov/vuln/detail/CVE-2021-37533)  | 
|  CVE-2021-38153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-38153](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)  | 
|  CVE-2022-23437  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-23437](https://nvd.nist.gov/vuln/detail/CVE-2022-23437)  | 
|  CVE-2022-24329  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-24329](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)  | 
|  CVE-2022-38749  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-41854  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2023-0833  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-20863  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-26048  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-26048](https://nvd.nist.gov/vuln/detail/CVE-2023-26048)  | 
|  CVE-2023-26049  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-26049](https://nvd.nist.gov/vuln/detail/CVE-2023-26049)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-39968  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39968](https://nvd.nist.gov/vuln/detail/CVE-2023-39968)  | 
|  CVE-2023-40167  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-40167](https://nvd.nist.gov/vuln/detail/CVE-2023-40167)  | 
|  CVE-2023-40170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-40170](https://nvd.nist.gov/vuln/detail/CVE-2023-40170)  | 
|  CVE-2023-42503  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-49080  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-49080](https://nvd.nist.gov/vuln/detail/CVE-2023-49080)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-38820  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38820](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)  | 
|  CVE-2024-38820  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38820](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)  | 
|  CVE-2024-43805  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-43805](https://nvd.nist.gov/vuln/detail/CVE-2024-43805)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-8184  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2024-8184  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2022-2047  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-2047](https://nvd.nist.gov/vuln/detail/CVE-2022-2047)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  GHSA-58qw-p7qm-5rvh  |  낮음  |  [https://nvd.nist.gov/vuln/detail/GHSA-58qw-p7qm-5rvh](https://nvd.nist.gov/vuln/detail/GHSA-58qw-p7qm-5rvh)  | 
|  GHSA-chfm-68vv-pvw5  |  낮음  |  [https://nvd.nist.gov/vuln/detail/GHSA-chfm-68vv-pvw5](https://nvd.nist.gov/vuln/detail/GHSA-chfm-68vv-pvw5)  | 
|  CVE-2023-50868  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50868](https://nvd.nist.gov/vuln/detail/CVE-2023-50868)  | 
|  CVE-2024-23454  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23454](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)  | 
|  CVE-2024-23454  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23454](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)  | 
|  CVE-2024-23944  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23944  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23944  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23945  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-23953  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23953](https://nvd.nist.gov/vuln/detail/CVE-2024-23953)  | 
|  CVE-2024-25638  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25638](https://nvd.nist.gov/vuln/detail/CVE-2024-25638)  | 
|  CVE-2024-27137  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-27137](https://nvd.nist.gov/vuln/detail/CVE-2024-27137)  | 
|  CVE-2024-29025  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-29131  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29131](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)  | 
|  CVE-2024-29131  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29131](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)  | 
|  CVE-2024-29133  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29133](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)  | 
|  CVE-2024-29133  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29133](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-29869  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29869](https://nvd.nist.gov/vuln/detail/CVE-2024-29869)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30172  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-30172  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-31141  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-31141  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-34447  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-34447  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-38808  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38808](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)  | 
|  CVE-2024-43382  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-43382](https://nvd.nist.gov/vuln/detail/CVE-2024-43382)  | 
|  CVE-2024-47072  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47072](https://nvd.nist.gov/vuln/detail/CVE-2024-47072)  | 
|  CVE-2024-47535  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47535  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-51504  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-51504  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-51504  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-56128  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-56128  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-9823  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-9823](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)  | 
|  CVE-2025-23015  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-23015](https://nvd.nist.gov/vuln/detail/CVE-2025-23015)  | 
|  CVE-2025-24789  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24789](https://nvd.nist.gov/vuln/detail/CVE-2025-24789)  | 
|  CVE-2025-24790  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24790](https://nvd.nist.gov/vuln/detail/CVE-2025-24790)  | 
|  CVE-2025-24860  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2025-24860](https://nvd.nist.gov/vuln/detail/CVE-2025-24860)  | 

## 7.7.0 릴리스 정보
<a name="emr-770-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.7.0에 대한 정보가 포함되어 있습니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.7.0 application upgrades include Delta 3.2.1-amzn-2, Hudi 0.15.0-amzn-4, Iceberg 1.7.1-amzn-0, and Trino 467.

**알려진 문제**
+  **Glue 카탈로그를 사용하여 HBase 테이블을 Hive에 생성** - EMR-7.3.0에서 EMR-7.10.0으로의 Hive Iceberg 통합으로 인해 버그가 발생하여 Glue Data Catalog를 메타스토어로 사용할 때 Hive에서 HBase 테이블 생성이 실패합니다. 이 문제가 발생하면 AWS 지원 팀에 문의하십시오.
+  **Tez UI** - EMR-7.3에서 EMR-7.10까지, 전송 중 암호화가 활성화된 경우 YARN Resource Manager Web UI를 통해 Tez UI에 액세스하지 못하는 버그가 있습니다. 이 문제는 Tez UI에 HTTPS가 필요한 동안 YARN 프록시가 HTTP 프로토콜을 사용하려고 시도하기 때문에 발생합니다. 이 문제를 해결하려면 `tez-site`의 `tez.tez-ui.history-url.base` 구성을 `http`에서 `https`로 수정하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ EMR 7.7.0부터 사용 중인 Iceberg 버전이 더 이상 Java 8을 지원하지 않습니다. 또한 Iceberg는 Java 8 이미지 `emr-7.7.0-java8-latest` 및 `emr-7.7.0-spark-rapids-java8-latest`에서 제외됩니다.
+ Amazon EMR on EKS를 사용한 FGAC용 Lake Formation - Amazon EMR 릴리스 7.7 이상에서는 AWS Lake Formation을 활용하여 Amazon S3에서 지원하는 데이터 카탈로그 테이블에 세분화된 액세스 제어를 적용할 수 있습니다. 이 기능을 통해 Amazon EKS Spark 작업 내 Amazon EMR에서 읽기 쿼리에 대한 테이블, 행, 열 및 셀 수준의 액세스 제어를 구성할 수 있습니다. 자세한 내용은 [세분화된 액세스 제어를 위해 AWS Lake Formation에서 Amazon EMR on EKS 사용을](https://docs.aws.amazon.com/emr/latest/EMR-on-EKS-DevelopmentGuide/security_iam_fgac-lf.html) 참조하세요.
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-770-release.html)

## 7.7.0 기본 Java 버전
<a name="emr-770-jdk"></a>

Amazon EMR 릴리스 7.7 이상은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.7.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.7.0 구성 요소 버전
<a name="emr-770-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.2.1-amzn-2 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.16.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.20.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.18.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.37.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.16.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.2 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.68.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.20.0-amzn-1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.20.0-amzn-1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.0-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.0-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.0-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.0-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.4.0-amzn-3 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.0-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.0-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.0-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.0-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.0-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.0-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.6.1-amzn-1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.6.1-amzn-1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.6.1-amzn-1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.6.1-amzn-1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.6.1-amzn-1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.6.1-amzn-1 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-16 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-16 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-16 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-16 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-16 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-16 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-16 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.15.0-amzn-4 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.15.0-amzn-4 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.15.0-amzn-4 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.15.0-amzn-4 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.7.1-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.3.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.1 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 467-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 467-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 467-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.3-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.3-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.3-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.3-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 24.10.1-amzn-1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| tensorflow | 2.16.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-14 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-14 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.2-amzn-1 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.2-amzn-1 | ZooKeeper 명령줄 클라이언트. | 

## 7.7.0 구성 분류
<a name="emr-770-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.7.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.7.0 변경 로그
<a name="770-changelog"></a>


**7.7.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-02-07 | 문서 게시 | Amazon EMR 7.7.0 릴리스 정보 최초 게시 | 
| 2025-02-06 | 배포 완료 | [지원되는 모든 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.7.0 완전 배포 | 
| 2025-01-30 | 초기 제한 릴리스 | Amazon EMR 7.7.0이 초기 상용 리전에 처음 배포됨 | 

# Amazon EMR 릴리스 7.6.0
<a name="emr-760-release"></a>

## 7.6.0 지원 수명 주기
<a name="emr-760-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.6.0에 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2025년 1월 10일 | 
| 표준 지원 종료 시점 | 2027년 1월 9일 | 
| 지원 종료 | 2027년 1월 10일 | 
| 수명 종료 | 2028년 1월 10일 | 

## 7.6.0 애플리케이션 버전
<a name="emr-760-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.6.0 | emr-7.5.0 | emr-7.4.0 | emr-7.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.29.25, 1.12.779 | 2.28.8, 1.12.772 | 2.28.8, 1.12.772 | 2.25.70, 1.12.747 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.18 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.2.1-amzn-1 | 3.2.1-amzn-0 | 3.2.0-amzn-1 | 3.2.0-amzn-0 | 
| Flink | 1.20.0-amzn-0 | 1.19.1-amzn-1 | 1.19.1-amzn-0 | 1.18.1-amzn-2 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.6.1-amzn-0 | 2.5.10-amzn-0 | 2.5.5-amzn-0 | 2.4.17-amzn-7 | 
| HCatalog | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 
| Hadoop | 3.4.0-amzn-2 | 3.4.0-amzn-1 | 3.4.0-amzn-0 | 3.3.6-amzn-5 | 
| Hive | 3.1.3-amzn-15 | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 
| Hudi | 0.15.0-amzn-3 | 0.15.0-amzn-2 | 0.15.0-amzn-1 | 0.15.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.6.1-amzn-2 | 1.6.1-amzn-1 | 1.6.1-amzn-0 | 1.5.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-1 | 0.287-amzn-0 | 0.287-amzn-0 | 0.285-amzn-1 | 
| Spark | 3.5.3-amzn-0 | 3.5.2-amzn-1 | 3.5.2-amzn-0 | 3.5.1-amzn-1 | 
| Sqoop |  -  |  -  | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.16.1 | 
| Tez | 0.10.2-amzn-13 | 0.10.2-amzn-12 | 0.10.2-amzn-11 | 0.10.2-amzn-10 | 
| Trino (PrestoSQL) | 457-amzn-0 | 446-amzn-0 | 446-amzn-0 | 442-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| ZooKeeper | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.1-amzn-1 | 

# 7.6.0 릴리스 구성 요소 세부 정보
<a name="emr-760-release-components-details"></a>

Amazon EMR 7.6.0의 *추가* 패키지에 대한 자세한 내용은 다음 표를 참조하세요.


| 애플리케이션 | 애플리케이션 유형 | 패키지 | 패키지 유형 | 패키지 버전 | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  s3-dist-cp  |  추가 항목  |  2.36.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-client  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-kms  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Flink  |  Core  |  hudi  |  추가 항목  |  0.15.0.amzn.3-1.amzn2023  | 
|  Flink  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  HBase  |  Core  |  s3-dist-cp  |  추가 항목  |  2.36.0-1.amzn2023  | 
|  HCatalog  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  HCatalog  |  Core  |  mariadb-connector-java  |  추가 항목  |    | 
|  Hive  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Hive  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Hive  |  Core  |  hive-hbase  |  추가 항목  |  3.1.3.amzn.15-1.amzn2023  | 
|  Hive  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Hive  |  Core  |  s3-dist-cp  |  추가 항목  |  2.36.0-1.amzn2023  | 
|  피닉스  |  Core  |  s3-dist-cp  |  추가 항목  |  2.36.0-1.amzn2023  | 
|  Spark  |  Core  |  spark-datanucleus  |  추가 항목  |  3.5.1.amzn.0-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-utils  |  추가 항목  |  1.2.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-client  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-kms  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hive  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog-server  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Trino  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-groovy  |  추가 항목  |  2.5.4-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-jsvc  |  추가 항목  |  1.2.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-lzo  |  추가 항목  |  0.4.19-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog  |  추가 항목  |  3.1.3.amzn.15-1.amzn2023  | 
|  Trino  |  Core  |  hive-jdbc  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Zookeeper  |  Core  |  emrfs  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-client  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-kms  |  추가 항목  |  3.9.2.amzn.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.4.0.amzn.2-1.amzn2023  | 
|  Zookeeper  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 

# 7.6.0 일반적인 취약성 및 노출
<a name="760-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.6.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2025년 1월 9일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2013-7285  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2013-7285](https://nvd.nist.gov/vuln/detail/CVE-2013-7285)  | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-10173  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10173](https://nvd.nist.gov/vuln/detail/CVE-2019-10173)  | 
|  CVE-2019-10202  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10202](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20444  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20444](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)  | 
|  CVE-2019-20445  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20445](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2021-21342  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21342](https://nvd.nist.gov/vuln/detail/CVE-2021-21342)  | 
|  CVE-2021-21344  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21344](https://nvd.nist.gov/vuln/detail/CVE-2021-21344)  | 
|  CVE-2021-21345  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21345](https://nvd.nist.gov/vuln/detail/CVE-2021-21345)  | 
|  CVE-2021-21346  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21346](https://nvd.nist.gov/vuln/detail/CVE-2021-21346)  | 
|  CVE-2021-21347  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21347](https://nvd.nist.gov/vuln/detail/CVE-2021-21347)  | 
|  CVE-2021-21350  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21350](https://nvd.nist.gov/vuln/detail/CVE-2021-21350)  | 
|  CVE-2021-21351  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21351](https://nvd.nist.gov/vuln/detail/CVE-2021-21351)  | 
|  CVE-2021-41411  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-41411](https://nvd.nist.gov/vuln/detail/CVE-2021-41411)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-42889  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42889](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2024-47561  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-52046  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-52046](https://nvd.nist.gov/vuln/detail/CVE-2024-52046)  | 
|  CVE-2024-53990  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-53990](https://nvd.nist.gov/vuln/detail/CVE-2024-53990)  | 
|  CVE-2012-0881  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-0881](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)  | 
|  CVE-2013-4002  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2013-4002](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)  | 
|  CVE-2014-8125  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2014-8125](https://nvd.nist.gov/vuln/detail/CVE-2014-8125)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-3674  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-3674](https://nvd.nist.gov/vuln/detail/CVE-2016-3674)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2017-7957  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7957](https://nvd.nist.gov/vuln/detail/CVE-2017-7957)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-10172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10172](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13936  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13936](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-26217  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26217](https://nvd.nist.gov/vuln/detail/CVE-2020-26217)  | 
|  CVE-2020-26258  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26258](https://nvd.nist.gov/vuln/detail/CVE-2020-26258)  | 
|  CVE-2020-28052  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-21341  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21341](https://nvd.nist.gov/vuln/detail/CVE-2021-21341)  | 
|  CVE-2021-21343  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21343](https://nvd.nist.gov/vuln/detail/CVE-2021-21343)  | 
|  CVE-2021-21348  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21348](https://nvd.nist.gov/vuln/detail/CVE-2021-21348)  | 
|  CVE-2021-21349  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21349](https://nvd.nist.gov/vuln/detail/CVE-2021-21349)  | 
|  CVE-2021-29505  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29505](https://nvd.nist.gov/vuln/detail/CVE-2021-29505)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-37136  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37136](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)  | 
|  CVE-2021-39139  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39139](https://nvd.nist.gov/vuln/detail/CVE-2021-39139)  | 
|  CVE-2021-39141  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39141](https://nvd.nist.gov/vuln/detail/CVE-2021-39141)  | 
|  CVE-2021-39144  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39144](https://nvd.nist.gov/vuln/detail/CVE-2021-39144)  | 
|  CVE-2021-39145  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39145](https://nvd.nist.gov/vuln/detail/CVE-2021-39145)  | 
|  CVE-2021-39146  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39146](https://nvd.nist.gov/vuln/detail/CVE-2021-39146)  | 
|  CVE-2021-39147  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39147](https://nvd.nist.gov/vuln/detail/CVE-2021-39147)  | 
|  CVE-2021-39148  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39148](https://nvd.nist.gov/vuln/detail/CVE-2021-39148)  | 
|  CVE-2021-39149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39149](https://nvd.nist.gov/vuln/detail/CVE-2021-39149)  | 
|  CVE-2021-39150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39150](https://nvd.nist.gov/vuln/detail/CVE-2021-39150)  | 
|  CVE-2021-39151  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39151](https://nvd.nist.gov/vuln/detail/CVE-2021-39151)  | 
|  CVE-2021-39152  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39152](https://nvd.nist.gov/vuln/detail/CVE-2021-39152)  | 
|  CVE-2021-39153  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39153](https://nvd.nist.gov/vuln/detail/CVE-2021-39153)  | 
|  CVE-2021-39154  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-39154](https://nvd.nist.gov/vuln/detail/CVE-2021-39154)  | 
|  CVE-2021-43859  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-43859](https://nvd.nist.gov/vuln/detail/CVE-2021-43859)  | 
|  CVE-2022-1415  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1415](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40151  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40151](https://nvd.nist.gov/vuln/detail/CVE-2022-40151)  | 
|  CVE-2022-40152  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40152](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)  | 
|  CVE-2022-41966  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41966](https://nvd.nist.gov/vuln/detail/CVE-2022-41966)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45688  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45688](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20883  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-44487  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44487](https://nvd.nist.gov/vuln/detail/CVE-2023-44487)  | 
|  CVE-2023-50387  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-52428  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-52428](https://nvd.nist.gov/vuln/detail/CVE-2023-52428)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-21634](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2009-2625  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2009-2625](https://nvd.nist.gov/vuln/detail/CVE-2009-2625)  | 
|  CVE-2012-5783  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2012-6153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2017-10355  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-10355](https://nvd.nist.gov/vuln/detail/CVE-2017-10355)  | 
|  CVE-2018-10237  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-1313  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2018-2799  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-2799](https://nvd.nist.gov/vuln/detail/CVE-2018-2799)  | 
|  CVE-2019-10219  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10219](https://nvd.nist.gov/vuln/detail/CVE-2019-10219)  | 
|  CVE-2019-12384  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-12814  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2020-10693  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10693](https://nvd.nist.gov/vuln/detail/CVE-2020-10693)  | 
|  CVE-2020-13955  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-14338  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14338](https://nvd.nist.gov/vuln/detail/CVE-2020-14338)  | 
|  CVE-2020-15250  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-17521  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-26939  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-29582  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-29582](https://nvd.nist.gov/vuln/detail/CVE-2020-29582)  | 
|  CVE-2021-21290  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21290](https://nvd.nist.gov/vuln/detail/CVE-2021-21290)  | 
|  CVE-2021-21295  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21295](https://nvd.nist.gov/vuln/detail/CVE-2021-21295)  | 
|  CVE-2021-22569  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-22570  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-27568  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2021-28170  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2021-36374  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2021-37533  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37533](https://nvd.nist.gov/vuln/detail/CVE-2021-37533)  | 
|  CVE-2021-38153  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-38153](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)  | 
|  CVE-2022-23437  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-23437](https://nvd.nist.gov/vuln/detail/CVE-2022-23437)  | 
|  CVE-2022-24329  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-24329](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)  | 
|  CVE-2022-38749  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-41854  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2023-0833  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-20863  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-26049  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-26049](https://nvd.nist.gov/vuln/detail/CVE-2023-26049)  | 
|  CVE-2023-33201  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-34462  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34462](https://nvd.nist.gov/vuln/detail/CVE-2023-34462)  | 
|  CVE-2023-42503  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-12798  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12798](https://nvd.nist.gov/vuln/detail/CVE-2024-12798)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-38820  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38820](https://nvd.nist.gov/vuln/detail/CVE-2024-38820)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2024-8184  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2020-8908  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2024-12801  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-12801](https://nvd.nist.gov/vuln/detail/CVE-2024-12801)  | 
|  CVE-2023-50868  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50868](https://nvd.nist.gov/vuln/detail/CVE-2023-50868)  | 
|  CVE-2024-23454  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23454](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)  | 
|  CVE-2024-23944  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-23945  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23945](https://nvd.nist.gov/vuln/detail/CVE-2024-23945)  | 
|  CVE-2024-25638  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25638](https://nvd.nist.gov/vuln/detail/CVE-2024-25638)  | 
|  CVE-2024-29025  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-29131  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29131](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)  | 
|  CVE-2024-29133  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29133](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)  | 
|  CVE-2024-29857  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2024-30171  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-31141  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-31141](https://nvd.nist.gov/vuln/detail/CVE-2024-31141)  | 
|  CVE-2024-36114  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-38808  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38808](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)  | 
|  CVE-2024-43382  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-43382](https://nvd.nist.gov/vuln/detail/CVE-2024-43382)  | 
|  CVE-2024-47072  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47072](https://nvd.nist.gov/vuln/detail/CVE-2024-47072)  | 
|  CVE-2024-47535  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47535](https://nvd.nist.gov/vuln/detail/CVE-2024-47535)  | 
|  CVE-2024-47554  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-51504  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-56128  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-56128](https://nvd.nist.gov/vuln/detail/CVE-2024-56128)  | 
|  CVE-2024-9823  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-9823](https://nvd.nist.gov/vuln/detail/CVE-2024-9823)  | 

## 7.6.0 릴리스 정보
<a name="emr-760-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.6.0에 대한 정보가 포함되어 있습니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.6.0 application upgrades include HBase 2.6.1, Flink 1.20.0, Spark 3.5.3, and Trino 457.

**알려진 문제**
+ 관리형 조정이 활성화되면 YARN ResourceManager(RM)에 심각한 교착 문제가 발생하여 동시 작업을 통해 **DECOMMISSIONING**에서 **DECOMMISSIONED** 상태로 전환할 때 응답하지 않습니다. 이 문제는 특히 대규모 클러스터 환경에서 발생합니다. 이 경우 노드 상태 전환과 애플리케이션 상태 전환 모두가 처리되지 않아 ResourceManager의 핵심 기능이 마비됩니다. 해결 방법은 프라이머리 노드에서 다음 명령을 사용하여 RM JVM을 다시 시작하는 것입니다.

  ```
  sudo systemctl restart hadoop-yarn-resourcemanager
  ```
+ `CapacityScheduler` 또는 `FairScheduler` 이외의 YARN 스케줄러(예: FIFO 스케줄러)로 EMR 클러스터를 시작하면 `YARNMemoryAvailablePercentage` 지표가 CloudWatch로 푸시되지 않습니다. 이 문제는 관리형 확장 사용 클러스터의 다운스케일링에 영향을 줍니다. 그리고 `YARNMemoryAvailablePercentage` 지표에 따라 달라지는 경우 사용자 지정 관리 규모 조정에도 영향을 미칠 수 있습니다. 해결 방법으로 `CapacityScheduler` 또는 `FairScheduler`를 사용합니다.
+  **Glue 카탈로그를 사용하여 HBase 테이블을 Hive에 생성** - EMR-7.3.0에서 EMR-7.10.0으로의 Hive Iceberg 통합으로 인해 버그가 발생하여 Glue Data Catalog를 메타스토어로 사용할 때 Hive에서 HBase 테이블 생성이 실패합니다. 이 문제가 발생하면 AWS 지원 팀에 문의하십시오.
+  **Tez UI** - EMR-7.3에서 EMR-7.10까지, 전송 중 암호화가 활성화된 경우 YARN Resource Manager Web UI를 통해 Tez UI에 액세스하지 못하는 버그가 있습니다. 이 문제는 Tez UI에 HTTPS가 필요한 동안 YARN 프록시가 HTTP 프로토콜을 사용하려고 시도하기 때문에 발생합니다. 이 문제를 해결하려면 `tez-site`의 `tez.tez-ui.history-url.base` 구성을 `http`에서 `https`로 수정하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ EMR 7.6.0부터, 단계 취소 프로세스는 이제 해당 단계가 취소될 때 해당 단계에서 생성된 모든 Hadoop YARN 애플리케이션이 종료되도록 합니다. 이 작업을 수행하면 클러스터 모드에서 실행되는 Spark 작업과 같은 애플리케이션을 보다 안정적으로 정리할 수 있습니다.
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ CloudWatch 에이전트는 EMR 7.6 이상의 런타임 역할 클러스터에서 지원됩니다. 자세한 내용은 [Amazon CloudWatch 에이전트](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-AmazonCloudWatchAgent.html)를 참조하세요.
+ Amazon Elastic Map Reduce(EMR) 릴리스 버전 7.6.0부터 Amazon S3A 파일 시스템 커넥터는 이제 Amazon S3 클라이언트 측 암호화를 지원합니다.
+ EMR 7.6.0부터, TLS는 HMaster 및 RegionServer 엔드포인트에서 지원됩니다. 자세한 내용은 HBase: [HBase](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-encryption-support-matrix.html#emr-encryption-support-matrix-hbase)를 사용한 TLS 지원에 대한 다음 표를 참조하세요.
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-760-release.html)

## 7.6.0 기본 Java 버전
<a name="emr-760-jdk"></a>

Amazon EMR 릴리스 7.6 이상은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.6.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 17, 11, 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.6.0 구성 요소 버전
<a name="emr-760-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.2.1-amzn-1 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.15.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.19.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.18.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.36.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.15.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.1 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.67.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.20.0-amzn-0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.20.0-amzn-0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.0-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.0-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.0-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.0-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.4.0-amzn-2 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.0-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.0-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.0-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.0-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.0-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.0-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.6.1-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.6.1-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.6.1-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.6.1-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.6.1-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.6.1-amzn-0 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-15 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-15 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-15 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-15 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-15 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-15 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-15 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.15.0-amzn-3 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.15.0-amzn-3 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.15.0-amzn-3 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.15.0-amzn-3 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.6.1-amzn-2 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.3.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 457-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 457-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 457-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.3-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.3-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.3-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.3-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 24.10.1-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| tensorflow | 2.16.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-13 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-13 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.2-amzn-0 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.2-amzn-0 | ZooKeeper 명령줄 클라이언트. | 

## 7.6.0 구성 분류
<a name="emr-760-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.6.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.6.0 변경 로그
<a name="760-changelog"></a>


**7.6.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-01-13 | 문서 게시 | Amazon EMR 7.6.0 릴리스 정보 최초 게시 | 
| 2025-01-10 | 배포 완료 | [지원되는 모든 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.6.0 완전 배포 | 
| 2025-12-26 | 초기 릴리스 | Amazon EMR 7.6.0이 초기 상용 리전에 처음 배포됨 | 

# Amazon EMR 릴리스 7.5.0
<a name="emr-750-release"></a>

## 7.5.0 지원 수명 주기
<a name="emr-750-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.5.0에 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2024년 11월 21일 | 
| 표준 지원 종료 시점 | 2026년 11월 20일 | 
| 지원 종료 | 2026년 11월 21일 | 
| 수명 종료 | 2027년 11월 21일 | 

## 7.5.0 애플리케이션 버전
<a name="emr-750-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.5.0 | emr-7.4.0 | emr-7.3.0 | emr-7.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.28.8, 1.12.772 | 2.28.8, 1.12.772 | 2.25.70, 1.12.747 | 2.23.18, 1.12.705 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.18 | 2.12.17 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.2.1-amzn-0 | 3.2.0-amzn-1 | 3.2.0-amzn-0 | 3.1.0 | 
| Flink | 1.19.1-amzn-1 | 1.19.1-amzn-0 | 1.18.1-amzn-2 | 1.18.1-amzn-1 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.5.10-amzn-0 | 2.5.5-amzn-0 | 2.4.17-amzn-7 | 2.4.17-amzn-6 | 
| HCatalog | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 
| Hadoop | 3.4.0-amzn-1 | 3.4.0-amzn-0 | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 
| Hive | 3.1.3-amzn-14 | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 
| Hudi | 0.15.0-amzn-2 | 0.15.0-amzn-1 | 0.15.0-amzn-0 | 0.14.1-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.6.1-amzn-1 | 1.6.1-amzn-0 | 1.5.2-amzn-0 | 1.5.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  |  -  | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.0 | 5.2.0 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-0 | 0.287-amzn-0 | 0.285-amzn-1 | 0.285-amzn-0 | 
| Spark | 3.5.2-amzn-1 | 3.5.2-amzn-0 | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 
| Sqoop |  -  | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.16.1 | 2.11.0 | 
| Tez | 0.10.2-amzn-12 | 0.10.2-amzn-11 | 0.10.2-amzn-10 | 0.10.2-amzn-9 | 
| Trino (PrestoSQL) | 446-amzn-0 | 446-amzn-0 | 442-amzn-0 | 436-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.11.1 | 0.10.1 | 
| ZooKeeper | 3.9.2-amzn-0 | 3.9.2-amzn-0 | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 

# 7.5.0 릴리스 구성 요소 세부 정보
<a name="emr-750-release-components-details"></a>

Amazon EMR 7.5.0의 *추가* 패키지에 대한 자세한 내용은 다음 표를 참조하세요.


| 애플리케이션 | 애플리케이션 유형 | 패키지 | 패키지 유형 | 패키지 버전 | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hudi  |  추가 항목  |  0.15.0.amzn.0-1.amzn2023  | 
|  Flink  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  HBase  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  HCatalog  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  HCatalog  |  Core  |  mariadb-connector-java  |  추가 항목  |    | 
|  Hive  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Hive  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Hive  |  Core  |  hive-hbase  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Hive  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Hive  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  피닉스  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  Spark  |  Core  |  spark-datanucleus  |  추가 항목  |  3.5.1.amzn.0-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-utils  |  추가 항목  |  1.2.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hive  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog-server  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Trino  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-groovy  |  추가 항목  |  2.5.4-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-jsvc  |  추가 항목  |  1.2.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-lzo  |  추가 항목  |  0.4.19-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  hive-jdbc  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Zookeeper  |  Core  |  emrfs  |  추가 항목  |  2.64.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 

# 7.5.0 일반적인 취약성 및 노출
<a name="750-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.5.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2021년 11월 23일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2013-4002  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2013-4002](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)  | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2018-12022  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2019-12384  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14439  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2020-10672  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-11112  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-13949  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14195  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-17521  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-24616  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-36183  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36186  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36188  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-8908  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2021-37137  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37137](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)  | 
|  CVE-2021-38153  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-38153](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)  | 
|  CVE-2022-25857  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3509  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-37866  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-41966  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41966](https://nvd.nist.gov/vuln/detail/CVE-2022-41966)  | 
|  CVE-2022-45688  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45688](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)  | 
|  CVE-2023-34455  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-38647  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-38647](https://nvd.nist.gov/vuln/detail/CVE-2023-38647)  | 
|  CVE-2023-40167  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-40167](https://nvd.nist.gov/vuln/detail/CVE-2023-40167)  | 
|  CVE-2023-43642  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-50387  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2024-23454  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23454](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)  | 
|  CVE-2024-29025  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-36124  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36124](https://nvd.nist.gov/vuln/detail/CVE-2024-36124)  | 
|  CVE-2024-8184  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2012-0881  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-0881](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)  | 
|  CVE-2012-5783  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-5018  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2017-15095  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-10054  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10054](https://nvd.nist.gov/vuln/detail/CVE-2018-10054)  | 
|  CVE-2018-10237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-14721  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19361  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2018-7489  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12814  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2019-14540  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16869  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16869](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)  | 
|  CVE-2019-16942  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-17267  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20444  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20444](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)  | 
|  CVE-2019-20445  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20445](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13955  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-15250  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-26939  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-8840  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-21290  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21290](https://nvd.nist.gov/vuln/detail/CVE-2021-21290)  | 
|  CVE-2021-22569  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-28170  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-36374  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2021-37533  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37533](https://nvd.nist.gov/vuln/detail/CVE-2021-37533)  | 
|  CVE-2021-43859  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-43859](https://nvd.nist.gov/vuln/detail/CVE-2021-43859)  | 
|  CVE-2022-1415  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1415](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)  | 
|  CVE-2022-1471  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37865  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-38749  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40151  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40151](https://nvd.nist.gov/vuln/detail/CVE-2022-40151)  | 
|  CVE-2022-40152  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40152](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)  | 
|  CVE-2022-41854  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42889  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42889](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46337  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2023-0833  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20863  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-33201  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-42503  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-50868  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50868](https://nvd.nist.gov/vuln/detail/CVE-2023-50868)  | 
|  CVE-2023-52428  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-52428](https://nvd.nist.gov/vuln/detail/CVE-2023-52428)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-21634](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)  | 
|  CVE-2024-23944  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-29131  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29131](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)  | 
|  CVE-2024-30171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-35255  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-35255](https://nvd.nist.gov/vuln/detail/CVE-2024-35255)  | 
|  CVE-2024-36114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-38808  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38808](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)  | 
|  CVE-2024-39676  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-39676](https://nvd.nist.gov/vuln/detail/CVE-2024-39676)  | 
|  CVE-2024-51504  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2017-17485  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2018-14719  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-19362  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2020-10650  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10968  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-13936  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13936](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)  | 
|  CVE-2020-14062  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-28052  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2022-25647  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-42004  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-46751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-20883  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-26048  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-26048](https://nvd.nist.gov/vuln/detail/CVE-2023-26048)  | 
|  CVE-2023-2976  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-36478  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-25638  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25638](https://nvd.nist.gov/vuln/detail/CVE-2024-25638)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-29133  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29133](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47561  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2012-6153  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2020-11113  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2021-22570  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-27568  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2024-29857  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2017-7525  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-1313  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2018-19360  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2019-16335  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16943  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2020-36180  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2021-37136  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37136](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)  | 
|  CVE-2022-24329  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-24329](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)  | 
|  CVE-2022-39135  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-40149  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2023-26049  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-26049](https://nvd.nist.gov/vuln/detail/CVE-2023-26049)  | 

## 7.5.0 릴리스 정보
<a name="emr-750-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.5.0에 대한 정보가 포함되어 있습니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.5.0 application upgrades include Delta 3.2.1-amzn-0, HBase 2.5.10, Hudi 0.15.0-amzn-2, and Iceberg 1.6.1-amzn-1.
+ EMR 미리 쓰기 로그(WAL)는 클러스터 간 복제를 지원합니다. 자세한 내용은 [EMR WAL 클러스터 간 복제](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-wal-cross-cluster.html)를 참조하세요.

**알려진 문제**
+ Amazon EMR 릴리스 7.5 이상에서 Apache Sqoop이 제거되었습니다.
+ 관리형 조정이 활성화되면 YARN ResourceManager(RM)에 심각한 교착 문제가 발생하여 동시 작업을 통해 **DECOMMISSIONING**에서 **DECOMMISSIONED** 상태로 전환할 때 응답하지 않습니다. 이 문제는 특히 대규모 클러스터 환경에서 발생합니다. 이 경우 노드 상태 전환과 애플리케이션 상태 전환 모두가 처리되지 않아 ResourceManager의 핵심 기능이 마비됩니다. 해결 방법은 프라이머리 노드에서 다음 명령을 사용하여 RM JVM을 다시 시작하는 것입니다.

  ```
  sudo systemctl restart hadoop-yarn-resourcemanager
  ```
+ `CapacityScheduler` 또는 `FairScheduler` 이외의 YARN 스케줄러(예: FIFO 스케줄러)로 EMR 클러스터를 시작하면 `YARNMemoryAvailablePercentage` 지표가 CloudWatch로 푸시되지 않습니다. 이 문제는 관리형 확장 사용 클러스터의 다운스케일링에 영향을 줍니다. 그리고 `YARNMemoryAvailablePercentage` 지표에 따라 달라지는 경우 사용자 지정 관리 규모 조정에도 영향을 미칠 수 있습니다. 해결 방법으로 `CapacityScheduler` 또는 `FairScheduler`를 사용합니다.
+  **Glue 카탈로그를 사용하여 HBase 테이블을 Hive에 생성** - EMR-7.3.0에서 EMR-7.10.0으로의 Hive Iceberg 통합으로 인해 버그가 발생하여 Glue Data Catalog를 메타스토어로 사용할 때 Hive에서 HBase 테이블 생성이 실패합니다. 이 문제가 발생하면 AWS 지원 팀에 문의하십시오.
+  **Tez UI** - EMR-7.3에서 EMR-7.10까지, 전송 중 암호화가 활성화된 경우 YARN Resource Manager Web UI를 통해 Tez UI에 액세스하지 못하는 버그가 있습니다. 이 문제는 Tez UI에 HTTPS가 필요한 동안 YARN 프록시가 HTTP 프로토콜을 사용하려고 시도하기 때문에 발생합니다. 이 문제를 해결하려면 `tez-site`의 `tez.tez-ui.history-url.base` 구성을 `http`에서 `https`로 수정하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ Amazon EMR은 클러스터에 대해 선택한 인스턴스 유형에 따라 다른 빌드의 TensorFlow 라이브러리를 사용합니다. 또한 Amazon EMR은 EMR-7.5.0 이상에서 **aarch64** 인스턴스 유형(Graviton 인스턴스)이 있는 클러스터에 TensorFlow를 지원합니다.

  다음 표에는 EMR-7.5.0의 인스턴스 유형별 빌드가 나와 있습니다.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-750-release.html)
+ FGAC(Fine-Grained Access Control)가 활성화된 AWS Lake Formation Amazon EMR 클러스터는 이제 다음 hdfs-site.xml 구성으로 최대 256개의 동시 단계를 지원할 수 있습니다.

  ```
  [
    {
      "Classification": "hdfs-site",
      "Properties": {
        "dfs.datanode.handler.count": "40",
        "dfs.datanode.max.transfer.threads": "16384",
        "dfs.namenode.handler.count": "64",
        "dfs.replication": "1"
      }
    },
    {
      "Classification": "hdfs-env",
      "Configurations": [
        {
          "Classification": "export",
          "Properties": {
            "HADOOP_DATANODE_HEAPSIZE": "5120"
          }
        }
      ],
      "Properties": {}
    }
  ]
  ```
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-750-release.html)

## 7.5.0 기본 Java 버전
<a name="emr-750-jdk"></a>

Amazon EMR 릴리스 7.5 이상은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.5.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.5.0 구성 요소 버전
<a name="emr-750-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.2.1-amzn-0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.14.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.18.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.16.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.35.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.14.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.1 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.66.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.19.1-amzn-1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.19.1-amzn-1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.0-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.0-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.0-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.0-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.4.0-amzn-1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.0-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.0-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.0-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.0-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.0-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.0-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.5.10-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.5.10-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.5.10-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.5.10-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.5.10-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.5.10-amzn-0 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-14 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-14 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-14 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-14 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-14 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-14 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-14 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.15.0-amzn-2 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.15.0-amzn-2 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.15.0-amzn-2 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.15.0-amzn-2 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.6.1-amzn-1 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.3.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 446-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 446-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 446-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.2-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.2-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.2-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.2-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 24.08.1-amzn-1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| tensorflow | 2.16.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-12 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-12 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.2-amzn-0 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.2-amzn-0 | ZooKeeper 명령줄 클라이언트. | 

## 7.5.0 구성 분류
<a name="emr-750-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.5.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.5.0 변경 로그
<a name="750-changelog"></a>


**7.5.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2024-11-21 | 문서 게시 | Amazon EMR 7.5.0 릴리스 정보 최초 게시 | 
| 2024-11-21 | 배포 완료 | [지원되는 모든 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.5.0 완전 배포 | 
| 2024-11-13 | 초기 릴리스 | Amazon EMR 7.5.0이 초기 상용 리전에 처음 배포됨 | 

# Amazon EMR 릴리스 7.4.0
<a name="emr-740-release"></a>

## 7.4.0 지원 수명 주기
<a name="emr-740-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.4.0에 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2024년 11월 13일 | 
| 표준 지원 종료 시점 | 2026년 11월 12일 | 
| 지원 종료 | 2026년 11월 13일 | 
| 수명 종료 | 2027년 11월 13일 | 

## 7.4.0 애플리케이션 버전
<a name="emr-740-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.4.0 | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.28.8, 1.12.772 | 2.25.70, 1.12.747 | 2.23.18, 1.12.705 | 2.23.18, 1.12.656 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 
| Scala | 2.12.18 | 2.12.18 | 2.12.17 | 2.12.17 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 
| Delta | 3.2.0-amzn-1 | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 
| Flink | 1.19.1-amzn-0 | 1.18.1-amzn-2 | 1.18.1-amzn-1 | 1.18.1-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.5.5-amzn-0 | 2.4.17-amzn-7 | 2.4.17-amzn-6 | 2.4.17-amzn-5 | 
| HCatalog | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 
| Hadoop | 3.4.0-amzn-0 | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 
| Hive | 3.1.3-amzn-13 | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 
| Hudi | 0.15.0-amzn-1 | 0.15.0-amzn-0 | 0.14.1-amzn-1 | 0.14.1-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.6.1-amzn-0 | 1.5.2-amzn-0 | 1.5.0-amzn-0 | 1.4.3-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 
| MXNet |  -  |  -  | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.2.0 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.287-amzn-0 | 0.285-amzn-1 | 0.285-amzn-0 | 0.284-amzn-0 | 
| Spark | 3.5.2-amzn-0 | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.16.1 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-11 | 0.10.2-amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 
| Trino (PrestoSQL) | 446-amzn-0 | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 
| Zeppelin | 0.11.1 | 0.11.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.9.2-amzn-0 | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 

# 7.4.0 릴리스 구성 요소 세부 정보
<a name="emr-740-release-components-details"></a>

Amazon EMR 7.4.0의 *추가* 패키지에 대한 자세한 내용은 다음 표를 참조하세요.


| 애플리케이션 | 애플리케이션 유형 | 패키지 | 패키지 유형 | 패키지 버전 | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hudi  |  추가 항목  |  0.15.0.amzn.0-1.amzn2023  | 
|  Flink  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  HBase  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  HCatalog  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  HCatalog  |  Core  |  mariadb-connector-java  |  추가 항목  |    | 
|  Hive  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Hive  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Hive  |  Core  |  hive-hbase  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Hive  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Hive  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  피닉스  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  Spark  |  Core  |  spark-datanucleus  |  추가 항목  |  3.5.1.amzn.0-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-utils  |  추가 항목  |  1.2.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hive  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog-server  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Trino  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-groovy  |  추가 항목  |  2.5.4-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-jsvc  |  추가 항목  |  1.2.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-lzo  |  추가 항목  |  0.4.19-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  hive-jdbc  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Zookeeper  |  Core  |  emrfs  |  추가 항목  |  2.64.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 

# 7.4.0 일반적인 취약성 및 노출
<a name="740-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.4.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVEs가 나열되어 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2024년 11월 14일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2013-4002  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2013-4002](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)  | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-12022  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2019-12384  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12384](https://nvd.nist.gov/vuln/detail/CVE-2019-12384)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14439  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2020-10672  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-11112  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-13949  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14195  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-17521  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17521](https://nvd.nist.gov/vuln/detail/CVE-2020-17521)  | 
|  CVE-2020-24616  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-36183  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36186  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36188  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-8908  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8908](https://nvd.nist.gov/vuln/detail/CVE-2020-8908)  | 
|  CVE-2021-37137  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37137](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)  | 
|  CVE-2021-38153  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-38153](https://nvd.nist.gov/vuln/detail/CVE-2021-38153)  | 
|  CVE-2022-25857  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3509  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-37866  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-41966  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41966](https://nvd.nist.gov/vuln/detail/CVE-2022-41966)  | 
|  CVE-2022-45688  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45688](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)  | 
|  CVE-2023-34455  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-38647  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-38647](https://nvd.nist.gov/vuln/detail/CVE-2023-38647)  | 
|  CVE-2023-40167  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-40167](https://nvd.nist.gov/vuln/detail/CVE-2023-40167)  | 
|  CVE-2023-43642  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-50387  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2024-23454  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23454](https://nvd.nist.gov/vuln/detail/CVE-2024-23454)  | 
|  CVE-2024-29025  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29025](https://nvd.nist.gov/vuln/detail/CVE-2024-29025)  | 
|  CVE-2024-36124  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36124](https://nvd.nist.gov/vuln/detail/CVE-2024-36124)  | 
|  CVE-2024-8184  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-8184](https://nvd.nist.gov/vuln/detail/CVE-2024-8184)  | 
|  CVE-2012-0881  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-0881](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)  | 
|  CVE-2012-5783  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-5783](https://nvd.nist.gov/vuln/detail/CVE-2012-5783)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-5018  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2017-15095  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-10054  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10054](https://nvd.nist.gov/vuln/detail/CVE-2018-10054)  | 
|  CVE-2018-10237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10237](https://nvd.nist.gov/vuln/detail/CVE-2018-10237)  | 
|  CVE-2018-11798  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11798](https://nvd.nist.gov/vuln/detail/CVE-2018-11798)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-14721  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19361  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2018-7489  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12814  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12814](https://nvd.nist.gov/vuln/detail/CVE-2019-12814)  | 
|  CVE-2019-14540  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16869  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16869](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)  | 
|  CVE-2019-16942  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-17267  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20444  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20444](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)  | 
|  CVE-2019-20445  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20445](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13955  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13955](https://nvd.nist.gov/vuln/detail/CVE-2020-13955)  | 
|  CVE-2020-13956  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13956](https://nvd.nist.gov/vuln/detail/CVE-2020-13956)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-15250  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15250](https://nvd.nist.gov/vuln/detail/CVE-2020-15250)  | 
|  CVE-2020-26939  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-26939](https://nvd.nist.gov/vuln/detail/CVE-2020-26939)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-8840  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-21290  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-21290](https://nvd.nist.gov/vuln/detail/CVE-2021-21290)  | 
|  CVE-2021-22569  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22569](https://nvd.nist.gov/vuln/detail/CVE-2021-22569)  | 
|  CVE-2021-28170  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28170](https://nvd.nist.gov/vuln/detail/CVE-2021-28170)  | 
|  CVE-2021-29425  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-29425](https://nvd.nist.gov/vuln/detail/CVE-2021-29425)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-36374  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36374](https://nvd.nist.gov/vuln/detail/CVE-2021-36374)  | 
|  CVE-2021-37533  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37533](https://nvd.nist.gov/vuln/detail/CVE-2021-37533)  | 
|  CVE-2021-43859  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-43859](https://nvd.nist.gov/vuln/detail/CVE-2021-43859)  | 
|  CVE-2022-1415  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1415](https://nvd.nist.gov/vuln/detail/CVE-2022-1415)  | 
|  CVE-2022-1471  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37865  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-38749  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38749](https://nvd.nist.gov/vuln/detail/CVE-2022-38749)  | 
|  CVE-2022-38751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38751](https://nvd.nist.gov/vuln/detail/CVE-2022-38751)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40151  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40151](https://nvd.nist.gov/vuln/detail/CVE-2022-40151)  | 
|  CVE-2022-40152  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40152](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)  | 
|  CVE-2022-41854  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41854](https://nvd.nist.gov/vuln/detail/CVE-2022-41854)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42889  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42889](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46337  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2023-0833  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-0833](https://nvd.nist.gov/vuln/detail/CVE-2023-0833)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20863  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20863](https://nvd.nist.gov/vuln/detail/CVE-2023-20863)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-33201  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33201](https://nvd.nist.gov/vuln/detail/CVE-2023-33201)  | 
|  CVE-2023-33202  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-33202](https://nvd.nist.gov/vuln/detail/CVE-2023-33202)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-42503  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-42503](https://nvd.nist.gov/vuln/detail/CVE-2023-42503)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-50868  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50868](https://nvd.nist.gov/vuln/detail/CVE-2023-50868)  | 
|  CVE-2023-52428  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-52428](https://nvd.nist.gov/vuln/detail/CVE-2023-52428)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-21634](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)  | 
|  CVE-2024-23944  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-23944](https://nvd.nist.gov/vuln/detail/CVE-2024-23944)  | 
|  CVE-2024-29131  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29131](https://nvd.nist.gov/vuln/detail/CVE-2024-29131)  | 
|  CVE-2024-30171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30171](https://nvd.nist.gov/vuln/detail/CVE-2024-30171)  | 
|  CVE-2024-30172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-30172](https://nvd.nist.gov/vuln/detail/CVE-2024-30172)  | 
|  CVE-2024-34447  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-34447](https://nvd.nist.gov/vuln/detail/CVE-2024-34447)  | 
|  CVE-2024-35255  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-35255](https://nvd.nist.gov/vuln/detail/CVE-2024-35255)  | 
|  CVE-2024-36114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-36114](https://nvd.nist.gov/vuln/detail/CVE-2024-36114)  | 
|  CVE-2024-38808  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-38808](https://nvd.nist.gov/vuln/detail/CVE-2024-38808)  | 
|  CVE-2024-39676  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-39676](https://nvd.nist.gov/vuln/detail/CVE-2024-39676)  | 
|  CVE-2024-51504  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-51504](https://nvd.nist.gov/vuln/detail/CVE-2024-51504)  | 
|  CVE-2024-7254  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-7254](https://nvd.nist.gov/vuln/detail/CVE-2024-7254)  | 
|  CVE-2017-17485  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2018-14719  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-19362  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2020-10650  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10968  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-13936  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13936](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)  | 
|  CVE-2020-14062  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-15522  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-15522](https://nvd.nist.gov/vuln/detail/CVE-2020-15522)  | 
|  CVE-2020-1945  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-1945](https://nvd.nist.gov/vuln/detail/CVE-2020-1945)  | 
|  CVE-2020-28052  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2021-36373  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36373](https://nvd.nist.gov/vuln/detail/CVE-2021-36373)  | 
|  CVE-2022-25647  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-38750  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38750](https://nvd.nist.gov/vuln/detail/CVE-2022-38750)  | 
|  CVE-2022-38752  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-38752](https://nvd.nist.gov/vuln/detail/CVE-2022-38752)  | 
|  CVE-2022-42004  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-46751  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-20883  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-26048  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-26048](https://nvd.nist.gov/vuln/detail/CVE-2023-26048)  | 
|  CVE-2023-2976  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-36478  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-51074  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-51074](https://nvd.nist.gov/vuln/detail/CVE-2023-51074)  | 
|  CVE-2024-25638  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25638](https://nvd.nist.gov/vuln/detail/CVE-2024-25638)  | 
|  CVE-2024-25710  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-25710](https://nvd.nist.gov/vuln/detail/CVE-2024-25710)  | 
|  CVE-2024-26308  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-26308](https://nvd.nist.gov/vuln/detail/CVE-2024-26308)  | 
|  CVE-2024-29133  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29133](https://nvd.nist.gov/vuln/detail/CVE-2024-29133)  | 
|  CVE-2024-47554  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47554](https://nvd.nist.gov/vuln/detail/CVE-2024-47554)  | 
|  CVE-2024-47561  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-47561](https://nvd.nist.gov/vuln/detail/CVE-2024-47561)  | 
|  CVE-2024-6763  |  중간  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-6763](https://nvd.nist.gov/vuln/detail/CVE-2024-6763)  | 
|  CVE-2012-6153  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-6153](https://nvd.nist.gov/vuln/detail/CVE-2012-6153)  | 
|  CVE-2020-11113  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2021-22570  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22570](https://nvd.nist.gov/vuln/detail/CVE-2021-22570)  | 
|  CVE-2021-27568  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-27568](https://nvd.nist.gov/vuln/detail/CVE-2021-27568)  | 
|  CVE-2024-29857  |  낮음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-29857](https://nvd.nist.gov/vuln/detail/CVE-2024-29857)  | 
|  CVE-2018-1313  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1313](https://nvd.nist.gov/vuln/detail/CVE-2018-1313)  | 
|  CVE-2020-36180  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2021-37136  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37136](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)  | 
|  CVE-2022-24329  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-24329](https://nvd.nist.gov/vuln/detail/CVE-2022-24329)  | 
|  CVE-2022-40149  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2023-26049  |  분류되지 않음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-26049](https://nvd.nist.gov/vuln/detail/CVE-2023-26049)  | 

## 7.4.0 릴리스 정보
<a name="emr-740-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.4.0에 대한 정보가 포함되어 있습니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.4.0 application upgrades include AWS SDK for Java 2.28.8, Delta 3.2.0-amzn-1, Flink 1.19.1, Hadoop 3.4.0, HBase 2.5.5, Hudi 0.15.0-amzn-1, Iceberg 1.6.1-amzn-0, Phoenix 5.2.0, Presto 0.287, Spark 3.5.2, Trino 446, and Zookeeper 3.9.2.
+ 이 릴리스에는 네트워크를 통한 전송 중 데이터 암호화를 지원하는 7개의 오픈 소스 엔드포인트가 추가되었습니다. 이 개선 사항에는 Hue, Livy, JupyterEnterpriseGateway, Zookeeper 및 Ranger KMS 같은 오픈 소스 프레임워크가 포함됩니다. 전송 중 데이터 암호화를 활성화하고 이러한 엔드포인트에 연결하려는 경우 TLS 통신을 지원하도록 코드를 수정해야 할 수 있습니다. 필요한 경우 이러한 엔드포인트에 대한 TLS를 비활성화할 수 있습니다. 지원되는 엔드포인트의 전체 목록은 [전송 중 암호화 이해](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-encryption-support-matrix.html)를 참조하세요.

**알려진 문제**
+ emr-6.11.0 이후 이전에 Hive 셔플 핸들러를 지원했던 Yarn ResourceManager의 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data` 속성은 이제 emr-7.4.0에서 Yarn에서 Spark를 실행할 때 Spark 외부 셔플 서비스가 제공하는 파일에도 정상적인 폐기를 적용합니다.

  Spark on Yarn을 실행할 때 Spark 외부 셔플 서비스의 기본 동작은 애플리케이션이 종료될 때 Yarn NodeManager가 애플리케이션 셔플 파일을 제거합니다. 이는 노드 해제 속도 및 컴퓨팅 사용률에 영향을 미칠 수 있습니다. 오래 실행되는 애플리케이션의 경우 `spark.shuffle.service.removeShuffle`을 `true`로 설정하여 더 이상 사용하지 않는 셔플 파일을 제거하면 활성 셔플 데이터가 없는 노드를 더 빠르게 폐기할 수 있습니다.
+  Amazon S3 Select 가용성 - Amazon S3 Select는 Presto 및 Trino에 대한 리전 간 쿼리를 지원하지 않습니다. Presto 및 Trino 릴리스에 사용할 수 있는 특정 기능에 대한 자세한 내용은 [Presto 및 Trino](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html)를 참조하세요.
+ Amazon EMR 릴리스 7.4에서는 Apache Ranger가 지원되지 않습니다.
+ Apache Sqoop은 알려진 문제 SQOOP-3485로 인해 Apache Hadoop 3.4와 호환되지 않습니다. Amazon EMR 릴리스 7.4에는 Apache Sqoop이 포함되지만, 지원되지는 않습니다. Apache Sqoop은 Amazon EMR 릴리스 7.5 이상 릴리스에서 제거될 예정입니다.
+ 관리형 조정이 활성화되면 YARN ResourceManager(RM)에 심각한 교착 문제가 발생하여 동시 작업을 통해 **DECOMMISSIONING**에서 **DECOMMISSIONED** 상태로 전환할 때 응답하지 않습니다. 이 문제는 특히 대규모 클러스터 환경에서 발생합니다. 이 경우 노드 상태 전환과 애플리케이션 상태 전환 모두가 처리되지 않아 ResourceManager의 핵심 기능이 마비됩니다. 해결 방법은 프라이머리 노드에서 다음 명령을 사용하여 RM JVM을 다시 시작하는 것입니다.

  ```
  sudo systemctl restart hadoop-yarn-resourcemanager
  ```
+ `CapacityScheduler` 또는 `FairScheduler` 이외의 YARN 스케줄러(예: FIFO 스케줄러)로 EMR 클러스터를 시작하면 `YARNMemoryAvailablePercentage` 지표가 CloudWatch로 푸시되지 않습니다. 이 문제는 관리형 확장 사용 클러스터의 다운스케일링에 영향을 줍니다. 그리고 `YARNMemoryAvailablePercentage` 지표에 따라 달라지는 경우 사용자 지정 관리 규모 조정에도 영향을 미칠 수 있습니다. 해결 방법으로 `CapacityScheduler` 또는 `FairScheduler`를 사용합니다.
+  **Glue 카탈로그를 사용하여 HBase 테이블을 Hive에 생성** - EMR-7.3.0에서 EMR-7.10.0으로의 Hive Iceberg 통합으로 인해 버그가 발생하여 Glue Data Catalog를 메타스토어로 사용할 때 Hive에서 HBase 테이블 생성이 실패합니다. 이 문제가 발생하면 AWS 지원 팀에 문의하십시오.
+  **Tez UI** - EMR-7.3에서 EMR-7.10까지, 전송 중 암호화가 활성화된 경우 YARN Resource Manager Web UI를 통해 Tez UI에 액세스하지 못하는 버그가 있습니다. 이 문제는 Tez UI에 HTTPS가 필요한 동안 YARN 프록시가 HTTP 프로토콜을 사용하려고 시도하기 때문에 발생합니다. 이 문제를 해결하려면 `tez-site`의 `tez.tez-ui.history-url.base` 구성을 `http`에서 `https`로 수정하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ Amazon EMR은 클러스터에 대해 선택한 인스턴스 유형에 따라 다른 빌드의 TensorFlow 라이브러리를 사용합니다. 또한 Amazon EMR은 EMR-7.5.0 이상에서 aarch64 인스턴스 유형(Graviton 인스턴스)이 있는 클러스터에 TensorFlow를 지원합니다.
+ **Iceberg 워크로드에 대한 S3 요청 크기 조정 최적화** - EMR 34 v7.4 릴리스와 함께 Iceberg를 사용하는 고객의 경우, S3는 기본 엔트로피 방식을 20자리 2진법 기반(예: 35 01010110100110110010) 해시로 업데이트했습니다. 이 새로운 base-2 엔트로피 체계는 문자 범위를 줄이고 S3가 대상 Iceberg 워크로드의 수요에 맞게 요청 용량을 더 빠르게 자동으로 조정할 수 있도록 합니다. 또한 이를 통해 워크로드가 503 스로틀 응답을 관찰하는 시간도 감소합니다.
+     
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-740-release.html)

## 7.4.0 기본 Java 버전
<a name="emr-740-jdk"></a>

Amazon EMR 릴리스 7.4 이상은 Apache Livy를 제외하고 Corretto 17(OpenJDK)을 지원하는 애플리케이션에 기본적으로 Amazon Corretto 17(OpenJDK 기반)과 함께 제공됩니다.

다음 표에는 Amazon EMR 7.4.0의 애플리케이션에 대한 기본 Java 버전이 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 17, 11, 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 7.4.0 구성 요소 버전
<a name="emr-740-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.2.0-amzn-1 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.13.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.17.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.17.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.34.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.13.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.1 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.65.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.19.1-amzn-0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.19.1-amzn-0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.4.0-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.4.0-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.4.0-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.4.0-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.4.0-amzn-0 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.4.0-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.4.0-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.4.0-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.4.0-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.4.0-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.4.0-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.5.5-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.5.5-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.5.5-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.5.5-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.5.5-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.5.5-amzn-0 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-13 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-13 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-13 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-13 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-13 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-13 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-13 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.15.0-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.15.0-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.15.0-amzn-1 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.15.0-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.6.1-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.3.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.287-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.287-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.287-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 446-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 446-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 446-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.2-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.2-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.2-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.2-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 24.08.1-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.16.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-11 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-11 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.2-amzn-0 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.2-amzn-0 | ZooKeeper 명령줄 클라이언트. | 

## 7.4.0 구성 분류
<a name="emr-740-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.4.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j2 | Phoenix log4j2.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.4.0 변경 로그
<a name="740-changelog"></a>


**7.4.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2024-11-18 | 문서 게시 | Amazon EMR 7.4.0 릴리스 정보 최초 게시 | 
| 2024-11-13 | 배포 완료 | [지원되는 모든 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.4.0 완전 배포 | 
| 2024-10-31 | 배포 시작 | Amazon EMR 7.4.0이 초기 상용 리전에 처음 배포됨 | 

# Amazon EMR 릴리스 7.3.0
<a name="emr-730-release"></a>

## 7.3.0 지원 수명 주기
<a name="emr-730-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.3.0에 대해 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2024년 10월 16일 | 
| 표준 지원 종료 시점 | 2026년 10월 15일 | 
| 지원 종료 | 2026년 10월 16일 | 
| 수명 종료 | 2027년 10월 16일 | 

## 7.3.0 애플리케이션 버전
<a name="emr-730-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.25.70, 1.12.747 | 2.23.18, 1.12.705 | 2.23.18, 1.12.656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9 | 
| Scala | 2.12.18 | 2.12.17 | 2.12.17 | 2.12.17 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1.18.1-amzn-2 | 1.18.1-amzn-1 | 1.18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.4.17-amzn-7 | 2.4.17-amzn-6 | 2.4.17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 0.15.0-amzn-0 | 0.14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.5.2-amzn-0 | 1.5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.7.1-incubating | 
| MXNet |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.285-amzn-1 | 0.285-amzn-0 | 0.284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

# 7.3.0 릴리스 구성 요소 세부 정보
<a name="emr-730-release-components-details"></a>

Amazon EMR 7.3.0의 *추가 항목* 패키지에 대한 자세한 내용은 다음 표를 참조하세요.


| 애플리케이션 | 애플리케이션 유형 | 패키지 | 패키지 유형 | 패키지 버전 | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Flink  |  Core  |  hudi  |  추가 항목  |  0.15.0.amzn.0-1.amzn2023  | 
|  Flink  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  HBase  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  HCatalog  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  HCatalog  |  Core  |  mariadb-connector-java  |  추가 항목  |    | 
|  Hive  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Hive  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Hive  |  Core  |  hive-hbase  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Hive  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Hive  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  피닉스  |  Core  |  s3-dist-cp  |  추가 항목  |  2.33.0-1.amzn2023  | 
|  Spark  |  Core  |  spark-datanucleus  |  추가 항목  |  3.5.1.amzn.0-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-utils  |  추가 항목  |  1.2.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hive  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog-server  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Trino  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-groovy  |  추가 항목  |  2.5.4-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-jsvc  |  추가 항목  |  1.2.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-lzo  |  추가 항목  |  0.4.19-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Trino  |  Core  |  hive-jdbc  |  추가 항목  |  3.1.3.amzn.12-1.amzn2023  | 
|  Zookeeper  |  Core  |  emrfs  |  추가 항목  |  2.64.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.5-1.amzn2023  | 
|  Zookeeper  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 

# 7.3.0 일반적인 취약성 및 노출
<a name="730-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.3.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVE가 나와 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2024년 10월 3일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20444  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20444](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)  | 
|  CVE-2019-20445  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20445](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2012-0881  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-0881](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)  | 
|  CVE-2013-4002  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2013-4002](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)  | 
|  CVE-2015-2156  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-2156](https://nvd.nist.gov/vuln/detail/CVE-2015-2156)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2017-18640  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-18640](https://nvd.nist.gov/vuln/detail/CVE-2017-18640)  | 
|  CVE-2017-18640  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-18640](https://nvd.nist.gov/vuln/detail/CVE-2017-18640)  | 
|  CVE-2018-1000180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-1000180](https://nvd.nist.gov/vuln/detail/CVE-2018-1000180)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-16869  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16869](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-13936  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13936](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28052  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28052](https://nvd.nist.gov/vuln/detail/CVE-2020-28052)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-35515  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35515](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)  | 
|  CVE-2021-35516  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35516](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)  | 
|  CVE-2021-35517  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35517](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)  | 
|  CVE-2021-36090  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36090](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)  | 
|  CVE-2021-37136  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37136](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)  | 
|  CVE-2021-37137  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37137](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40152  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40152](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45688  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45688](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-36478  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-36478  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-50387  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-50387](https://nvd.nist.gov/vuln/detail/CVE-2023-50387)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-21634](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)  | 

## 7.3.0 릴리스 정보
<a name="emr-730-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.3.0에 대한 정보가 포함됩니다. 변경 사항은 7.3.0에 관련됩니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.3.0 application upgrades include Delta 3.2.0-amzn-0, Hudi 0.15.0-amzn-0, TensorFlow 2.16.1, Trino 442, and Zeppelin 0.11.1.
+ 이 릴리스에는 네트워크를 통한 전송 중 데이터 암호화를 지원하는 22개의 오픈 소스 엔드포인트가 추가되었습니다. 이 개선 사항에는 Hadoop, Hive, Tez, HBase, Phoenix 및 Flink와 같은 오픈 소스 프레임워크가 포함됩니다. 전송 중 데이터 암호화를 활성화하고 이러한 엔드포인트에 연결하려는 경우 TLS 통신을 지원하도록 코드를 수정해야 할 수 있습니다. 필요한 경우 이러한 엔드포인트에 대한 TLS를 비활성화할 수 있습니다. 지원되는 엔드포인트의 전체 목록은 [전송 중 암호화 이해](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-encryption-support-matrix.html)를 참조하세요.
+ Amazon EMR 7.3.0을 사용하면 Iceberg를 사용하는 Apache Hive가 이제 AWS Glue 데이터 카탈로그를 메타스토어로 지원하므로 메타데이터를 저장하고, 데이터 소스를 자동으로 크롤링하고, 메타데이터를 추출하고, 원활한 워크플로를 위해 다른 서비스와 통합하는 중앙 집중식 리포지토리와 같은 이점을 누릴 수 있습니다.

**알려진 문제**
+ Python 3.11은 EMR Studio에서 지원되지 않습니다.
+ 전송 중 암호화 및 Kerberos 인증을 사용하는 경우 Hive 메타스토어에 의존하는 Spark 애플리케이션을 사용할 수 없습니다. 이 문제는 [HIVE-16340](https://issues.apache.org/jira/browse/HIVE-16340)에서 수정되었으며, 오픈 소스 Spark를 Hive 3으로 업그레이드할 수 있는 경우 [SPARK-44114](https://issues.apache.org/jira/browse/SPARK-44114)에서 완전히 해결됩니다. 그동안 `hive.metastore.use.SSL`을 `false`로 설정하여 이 문제를 일시적으로 해결할 수 있습니다. 자세한 내용은 [애플리케이션 구성](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html)을 참조하세요.
  + Kerberos 인증을 사용하지 않는 경우 SSL을 사용하도록 Spark를 구성해야 합니다. 이를 수행하려면 클러스터를 프로비저닝할 때 다음 구성을 설정합니다.

    ```
    [{
        "Classification": "spark-defaults",
        "Properties": {
            "spark.hadoop.hive.metastore.truststore.path": "/usr/share/aws/emr/security/conf/keystore-thrift.jks",
            "spark.hadoop.hive.metastore.use.SSL": "true"
        }
    }]
    ```
+ 사용자 지정 도메인을 사용하는 경우 AWS 콘솔의 Spark 기록 서버 UI에 있는 일부 링크가 작동하지 않을 수 있습니다. 다음 스크립트를 S3 버킷에 업로드한 다음, 쉘 스크립트를 사용하도록 [단계를 추가](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-add-steps-console.html)합니다.

  ```
  #!/bin/bash
  
  if grep -q ":8042" /etc/nginx/nginx.conf; then
      sudo sed -i '=s#\^(\\/nm\\/(?<nodeAddress>.*:8042)\\/(?<url>.*)\$)#^(\\/nm\\/(?<nodeAddress>(\\.|-|[a-zA-Z0-9])*:8042)\\/(?<url>(node|conf|logs|stacks|jmx).*)\$)#g' /etc/nginx/nginx.conf
  else
      sudo sed -i 's#\^(\\/nm\\/(?<nodeAddress>.*:8044)\\/(?<url>.*)\$)#^(\\/nm\\/(?<nodeAddress>(\\.|-|[a-zA-Z0-9])*:8044)\\/(?<url>(node|conf|logs|stacks|jmx).*)\$)#g' /etc/nginx/nginx.conf
  fi
  
  sudo systemctl restart nginx
  ```
+  **Glue 카탈로그를 사용하여 HBase 테이블을 Hive에 생성** - EMR-7.3.0에서 EMR-7.10.0으로의 Hive Iceberg 통합으로 인해 버그가 발생하여 Glue Data Catalog를 메타스토어로 사용할 때 Hive에서 HBase 테이블 생성이 실패합니다. 이 문제가 발생하면 AWS 지원 팀에 문의하십시오.
+  **Tez UI** - EMR-7.3에서 EMR-7.10까지, 전송 중 암호화가 활성화된 경우 YARN Resource Manager Web UI를 통해 Tez UI에 액세스하지 못하는 버그가 있습니다. 이 문제는 Tez UI에 HTTPS가 필요한 동안 YARN 프록시가 HTTP 프로토콜을 사용하려고 시도하기 때문에 발생합니다. 이 문제를 해결하려면 `tez-site`의 `tez.tez-ui.history-url.base` 구성을 `http`에서 `https`로 수정하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ YARN에 대한 TLS 호스트 이름 확인을 지원하기 위해 이 릴리스에서는 `yarn.resourcemanager.hostname` 구성을 기본 인스턴스 IP 주소에서 기본 인스턴스 프라이빗 DNS 이름으로 변경합니다.
+ [MXNet 프로젝트](https://github.com/apache/mxnet)는 수명이 다하여 이제 아카이브됩니다. [Amazon EMR 릴리스 7.2.0](emr-720-release.md)는 MXNet이 포함된 마지막 릴리스입니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-730-release.html)

## 7.3.0 기본 Java 버전
<a name="emr-730-jdk"></a>

Amazon EMR 릴리스 7.3 이상에서는 Apache Livy를 제외한 Corretto 17(JDK 17)을 지원하는 애플리케이션에 대해 기본적으로 Amazon Corretto 17(OpenJDK 기반)이 함께 제공됩니다.

다음 표에서는 Amazon EMR 7.3.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 17, 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 17, 11, 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 17, 11, 8 | 

## 7.3.0 구성 요소 버전
<a name="emr-730-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.2.0-amzn-0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.12.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.16.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.16.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.33.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.12.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.3.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.64.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.18.1-amzn-2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.18.1-amzn-2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.3.6-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.6-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.6-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.6-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-5 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.6-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.6-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.6-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.17-amzn-7 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.17-amzn-7 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.17-amzn-7 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.17-amzn-7 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.17-amzn-7 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.17-amzn-7 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-12 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-12 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-12 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-12 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-12 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-12 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-12 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.15.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.15.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.15.0-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.15.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.5.2-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 12.3.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.285-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.285-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.285-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 442-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 442-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 442-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.1-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.1-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.1-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.1-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 24.06.1-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.16.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-10 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-10 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.11.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.1-amzn-1 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.1-amzn-1 | ZooKeeper 명령줄 클라이언트. | 

## 7.3.0 구성 분류
<a name="emr-730-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.3.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.3.0 변경 로그
<a name="730-changelog"></a>


**7.3.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2024-10-17 | 문서 게시 | Amazon EMR 7.3.0 릴리스 정보 최초 게시됨 | 
| 2024-10-16 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.3.0 전체 배포됨 | 
| 2024-10-14 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 7.3.0 최초 배포됨 | 

# Amazon EMR 릴리스 7.2.0
<a name="emr-720-release"></a>

## 7.2.0 지원 수명 주기
<a name="emr-720-supported-lifecycle"></a>

다음 표에서는 Amazon EMR 릴리스 7.2.0에 대해 지원되는 수명 주기 날짜를 설명합니다.


| 지원 단계 | Date | 
| --- | --- | 
| 초기 릴리스 날짜 | 2024년 7월 25일 | 
| 표준 지원 종료 시점 | 2026년 7월 24일 | 
| 지원 종료 | 2026년 7월 25일 | 
| 수명 종료 | 2027년 7월 25일 | 

## 7.2.0 애플리케이션 버전
<a name="emr-720-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.25.70, 1.12.747 | 2.23.18, 1.12.705 | 2.23.18, 1.12.656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9 | 
| Scala | 2.12.18 | 2.12.17 | 2.12.17 | 2.12.17 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1.18.1-amzn-2 | 1.18.1-amzn-1 | 1.18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.4.17-amzn-7 | 2.4.17-amzn-6 | 2.4.17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 0.15.0-amzn-0 | 0.14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.5.2-amzn-0 | 1.5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.7.1-incubating | 
| MXNet |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.285-amzn-1 | 0.285-amzn-0 | 0.284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

# 7.2.0 릴리스 구성 요소 세부 정보
<a name="emr-720-release-components-details"></a>

Amazon EMR 7.2.0의 *추가 항목* 패키지에 대한 자세한 내용은 다음 표를 참조하세요.


| 애플리케이션 | 애플리케이션 유형 | 패키지 | 패키지 유형 | 패키지 버전 | 
| --- | --- | --- | --- | --- | 
|  AmazonCloudWatchAgent  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  s3-dist-cp  |  추가 항목  |  2.32.0-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  AmazonCloudWatchAgent  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Flink  |  Core  |  hudi  |  추가 항목  |  0.14.1.amzn.1-1.amzn2023  | 
|  Flink  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Flink  |  Core  |  hadoop  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  HBase  |  Core  |  s3-dist-cp  |  추가 항목  |  2.32.0-1.amzn2023  | 
|  HCatalog  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  HCatalog  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Hive  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Hive  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Hive  |  Core  |  hive-hbase  |  추가 항목  |  3.1.3.amzn.11-1.amzn2023  | 
|  Hive  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Hive  |  Core  |  s3-dist-cp  |  추가 항목  |  2.32.0-1.amzn2023  | 
|  피닉스  |  Core  |  s3-dist-cp  |  추가 항목  |  2.32.0-1.amzn2023  | 
|  Spark  |  Core  |  spark-datanucleus  |  추가 항목  |  3.5.1.amzn.0-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Tez의 Hive 실행 시간 비교  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-utils  |  추가 항목  |  1.2.0-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hive  |  추가 항목  |  3.1.3.amzn.11-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog-server  |  추가 항목  |  3.1.3.amzn.11-1.amzn2023  | 
|  Trino  |  Core  |  mariadb-connector-java  |  추가 항목  |  2.7.2-1  | 
|  Trino  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  zookeeper-server  |  추가 항목  |  3.9.1.amzn.1-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-groovy  |  추가 항목  |  2.5.4-1.amzn2023  | 
|  Trino  |  Core  |  bigtop-jsvc  |  추가 항목  |  1.2.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Trino  |  Core  |  hadoop-lzo  |  추가 항목  |  0.4.19-1.amzn2023  | 
|  Trino  |  Core  |  hive-hcatalog  |  추가 항목  |  3.1.3.amzn.11-1.amzn2023  | 
|  Trino  |  Core  |  hive-jdbc  |  추가 항목  |  3.1.3.amzn.11-1.amzn2023  | 
|  Zookeeper  |  Core  |  emrfs  |  추가 항목  |  2.63.0-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-client  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-datanode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-journalnode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-hdfs-namenode  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-httpfs  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-kms  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-mapreduce-historyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-nodemanager  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-proxyserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-resourcemanager  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  hadoop-yarn-timelineserver  |  추가 항목  |  3.3.6.amzn.4-1.amzn2023  | 
|  Zookeeper  |  Core  |  ranger-kms  |  추가 항목  |  2.0.0-1.amzn2023  | 

# 7.2.0 일반적인 취약성 및 노출
<a name="720-common-vulnerabilities-exposures"></a>

다음 표에는 Amazon EMR 7.2.0의 권장 구성에서 실행되는 EMR 클러스터에 영향을 주지 않는 모든 CVE가 나와 있습니다. Amazon EMR은 업스트림 오픈 소스의 수정 사항 가용성에 종속되어 있으며, Amazon EMR이 수정 사항을 확인한 후 90일 이내에 코어 엔진 구성 요소의 일부로 안정적인 최신 버전을 제공합니다.

이 표는 2024년 9월 15일에 업데이트되었습니다.


| CVE ID | 심각도 | CVE 세부 정보 URL | 
| --- | --- | --- | 
|  CVE-2015-1832  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-1832](https://nvd.nist.gov/vuln/detail/CVE-2015-1832)  | 
|  CVE-2015-4852  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-4852](https://nvd.nist.gov/vuln/detail/CVE-2015-4852)  | 
|  CVE-2015-7501  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-7501](https://nvd.nist.gov/vuln/detail/CVE-2015-7501)  | 
|  CVE-2016-5018  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-5018](https://nvd.nist.gov/vuln/detail/CVE-2016-5018)  | 
|  CVE-2017-1000487  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-1000487](https://nvd.nist.gov/vuln/detail/CVE-2017-1000487)  | 
|  CVE-2017-12629  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-12629](https://nvd.nist.gov/vuln/detail/CVE-2017-12629)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-15095  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15095](https://nvd.nist.gov/vuln/detail/CVE-2017-15095)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-17485  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-17485](https://nvd.nist.gov/vuln/detail/CVE-2017-17485)  | 
|  CVE-2017-7525  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7525](https://nvd.nist.gov/vuln/detail/CVE-2017-7525)  | 
|  CVE-2017-7657  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7657](https://nvd.nist.gov/vuln/detail/CVE-2017-7657)  | 
|  CVE-2017-7658  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7658](https://nvd.nist.gov/vuln/detail/CVE-2017-7658)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-11307  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11307](https://nvd.nist.gov/vuln/detail/CVE-2018-11307)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14718  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14718](https://nvd.nist.gov/vuln/detail/CVE-2018-14718)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14719  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14719](https://nvd.nist.gov/vuln/detail/CVE-2018-14719)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14720  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14720](https://nvd.nist.gov/vuln/detail/CVE-2018-14720)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-14721  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-14721](https://nvd.nist.gov/vuln/detail/CVE-2018-14721)  | 
|  CVE-2018-17190  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-17190](https://nvd.nist.gov/vuln/detail/CVE-2018-17190)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19360  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19360](https://nvd.nist.gov/vuln/detail/CVE-2018-19360)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19361  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19361](https://nvd.nist.gov/vuln/detail/CVE-2018-19361)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-19362  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-19362](https://nvd.nist.gov/vuln/detail/CVE-2018-19362)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2018-7489  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-7489](https://nvd.nist.gov/vuln/detail/CVE-2018-7489)  | 
|  CVE-2019-10202  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10202](https://nvd.nist.gov/vuln/detail/CVE-2019-10202)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14379  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14379](https://nvd.nist.gov/vuln/detail/CVE-2019-14379)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14540  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14540](https://nvd.nist.gov/vuln/detail/CVE-2019-14540)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14892  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14892](https://nvd.nist.gov/vuln/detail/CVE-2019-14892)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-14893  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14893](https://nvd.nist.gov/vuln/detail/CVE-2019-14893)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16335  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16335](https://nvd.nist.gov/vuln/detail/CVE-2019-16335)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16942  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16942](https://nvd.nist.gov/vuln/detail/CVE-2019-16942)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-16943  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16943](https://nvd.nist.gov/vuln/detail/CVE-2019-16943)  | 
|  CVE-2019-17195  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17195](https://nvd.nist.gov/vuln/detail/CVE-2019-17195)  | 
|  CVE-2019-17195  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17195](https://nvd.nist.gov/vuln/detail/CVE-2019-17195)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17267  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17267](https://nvd.nist.gov/vuln/detail/CVE-2019-17267)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-17531  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17531](https://nvd.nist.gov/vuln/detail/CVE-2019-17531)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20330  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20330](https://nvd.nist.gov/vuln/detail/CVE-2019-20330)  | 
|  CVE-2019-20444  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20444](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)  | 
|  CVE-2019-20444  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20444](https://nvd.nist.gov/vuln/detail/CVE-2019-20444)  | 
|  CVE-2019-20445  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20445](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)  | 
|  CVE-2019-20445  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-20445](https://nvd.nist.gov/vuln/detail/CVE-2019-20445)  | 
|  CVE-2020-7692  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-7692](https://nvd.nist.gov/vuln/detail/CVE-2020-7692)  | 
|  CVE-2020-7692  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-7692](https://nvd.nist.gov/vuln/detail/CVE-2020-7692)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-8840  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-8840](https://nvd.nist.gov/vuln/detail/CVE-2020-8840)  | 
|  CVE-2020-9480  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9480](https://nvd.nist.gov/vuln/detail/CVE-2020-9480)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9546  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9546](https://nvd.nist.gov/vuln/detail/CVE-2020-9546)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9547  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9547](https://nvd.nist.gov/vuln/detail/CVE-2020-9547)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2020-9548  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9548](https://nvd.nist.gov/vuln/detail/CVE-2020-9548)  | 
|  CVE-2021-26291  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-26291](https://nvd.nist.gov/vuln/detail/CVE-2021-26291)  | 
|  CVE-2021-26291  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-26291](https://nvd.nist.gov/vuln/detail/CVE-2021-26291)  | 
|  CVE-2021-32797  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-32797](https://nvd.nist.gov/vuln/detail/CVE-2021-32797)  | 
|  CVE-2021-32798  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-32798](https://nvd.nist.gov/vuln/detail/CVE-2021-32798)  | 
|  CVE-2021-35958  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35958](https://nvd.nist.gov/vuln/detail/CVE-2021-35958)  | 
|  CVE-2021-37404  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37404](https://nvd.nist.gov/vuln/detail/CVE-2021-37404)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-1471  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-1471](https://nvd.nist.gov/vuln/detail/CVE-2022-1471)  | 
|  CVE-2022-25168  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25168](https://nvd.nist.gov/vuln/detail/CVE-2022-25168)  | 
|  CVE-2022-26612  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-26612](https://nvd.nist.gov/vuln/detail/CVE-2022-26612)  | 
|  CVE-2022-32532  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-32532](https://nvd.nist.gov/vuln/detail/CVE-2022-32532)  | 
|  CVE-2022-33980  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-33980](https://nvd.nist.gov/vuln/detail/CVE-2022-33980)  | 
|  CVE-2022-37865  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37865](https://nvd.nist.gov/vuln/detail/CVE-2022-37865)  | 
|  CVE-2022-39135  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-39135](https://nvd.nist.gov/vuln/detail/CVE-2022-39135)  | 
|  CVE-2022-40664  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40664](https://nvd.nist.gov/vuln/detail/CVE-2022-40664)  | 
|  CVE-2022-42889  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42889](https://nvd.nist.gov/vuln/detail/CVE-2022-42889)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2022-46337  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46337](https://nvd.nist.gov/vuln/detail/CVE-2022-46337)  | 
|  CVE-2023-38647  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-38647](https://nvd.nist.gov/vuln/detail/CVE-2023-38647)  | 
|  CVE-2023-38647  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-38647](https://nvd.nist.gov/vuln/detail/CVE-2023-38647)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2023-44981  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-44981](https://nvd.nist.gov/vuln/detail/CVE-2023-44981)  | 
|  CVE-2024-1597  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-1597](https://nvd.nist.gov/vuln/detail/CVE-2024-1597)  | 
|  CVE-2024-1597  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-1597](https://nvd.nist.gov/vuln/detail/CVE-2024-1597)  | 
|  CVE-2024-1597  |  심각  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-1597](https://nvd.nist.gov/vuln/detail/CVE-2024-1597)  | 
|  CVE-2012-0881  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-0881](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)  | 
|  CVE-2012-0881  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2012-0881](https://nvd.nist.gov/vuln/detail/CVE-2012-0881)  | 
|  CVE-2013-4002  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2013-4002](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)  | 
|  CVE-2013-4002  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2013-4002](https://nvd.nist.gov/vuln/detail/CVE-2013-4002)  | 
|  CVE-2014-0114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2014-0114](https://nvd.nist.gov/vuln/detail/CVE-2014-0114)  | 
|  CVE-2014-0114  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2014-0114](https://nvd.nist.gov/vuln/detail/CVE-2014-0114)  | 
|  CVE-2015-2080  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-2080](https://nvd.nist.gov/vuln/detail/CVE-2015-2080)  | 
|  CVE-2015-2156  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-2156](https://nvd.nist.gov/vuln/detail/CVE-2015-2156)  | 
|  CVE-2015-2156  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-2156](https://nvd.nist.gov/vuln/detail/CVE-2015-2156)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2015-5237  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-5237](https://nvd.nist.gov/vuln/detail/CVE-2015-5237)  | 
|  CVE-2015-6420  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2015-6420](https://nvd.nist.gov/vuln/detail/CVE-2015-6420)  | 
|  CVE-2016-1000338  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-1000338](https://nvd.nist.gov/vuln/detail/CVE-2016-1000338)  | 
|  CVE-2016-1000340  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-1000340](https://nvd.nist.gov/vuln/detail/CVE-2016-1000340)  | 
|  CVE-2016-1000342  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-1000342](https://nvd.nist.gov/vuln/detail/CVE-2016-1000342)  | 
|  CVE-2016-1000343  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-1000343](https://nvd.nist.gov/vuln/detail/CVE-2016-1000343)  | 
|  CVE-2016-1000344  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-1000344](https://nvd.nist.gov/vuln/detail/CVE-2016-1000344)  | 
|  CVE-2016-1000352  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-1000352](https://nvd.nist.gov/vuln/detail/CVE-2016-1000352)  | 
|  CVE-2016-6796  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2016-6796](https://nvd.nist.gov/vuln/detail/CVE-2016-6796)  | 
|  CVE-2017-1000034  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-1000034](https://nvd.nist.gov/vuln/detail/CVE-2017-1000034)  | 
|  CVE-2017-12612  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-12612](https://nvd.nist.gov/vuln/detail/CVE-2017-12612)  | 
|  CVE-2017-15288  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-15288](https://nvd.nist.gov/vuln/detail/CVE-2017-15288)  | 
|  CVE-2017-18640  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-18640](https://nvd.nist.gov/vuln/detail/CVE-2017-18640)  | 
|  CVE-2017-18640  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-18640](https://nvd.nist.gov/vuln/detail/CVE-2017-18640)  | 
|  CVE-2017-5637  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-5637](https://nvd.nist.gov/vuln/detail/CVE-2017-5637)  | 
|  CVE-2017-7656  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7656](https://nvd.nist.gov/vuln/detail/CVE-2017-7656)  | 
|  CVE-2017-7687  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-7687](https://nvd.nist.gov/vuln/detail/CVE-2017-7687)  | 
|  CVE-2017-9735  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-9735](https://nvd.nist.gov/vuln/detail/CVE-2017-9735)  | 
|  CVE-2017-9790  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2017-9790](https://nvd.nist.gov/vuln/detail/CVE-2017-9790)  | 
|  CVE-2018-10054  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10054](https://nvd.nist.gov/vuln/detail/CVE-2018-10054)  | 
|  CVE-2018-10936  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-10936](https://nvd.nist.gov/vuln/detail/CVE-2018-10936)  | 
|  CVE-2018-11793  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11793](https://nvd.nist.gov/vuln/detail/CVE-2018-11793)  | 
|  CVE-2018-11804  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-11804](https://nvd.nist.gov/vuln/detail/CVE-2018-11804)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12022  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12022](https://nvd.nist.gov/vuln/detail/CVE-2018-12022)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-12023  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-12023](https://nvd.nist.gov/vuln/detail/CVE-2018-12023)  | 
|  CVE-2018-3258  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-3258](https://nvd.nist.gov/vuln/detail/CVE-2018-3258)  | 
|  CVE-2018-3827  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-3827](https://nvd.nist.gov/vuln/detail/CVE-2018-3827)  | 
|  CVE-2018-3831  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-3831](https://nvd.nist.gov/vuln/detail/CVE-2018-3831)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2018-5968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-5968](https://nvd.nist.gov/vuln/detail/CVE-2018-5968)  | 
|  CVE-2018-8012  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-8012](https://nvd.nist.gov/vuln/detail/CVE-2018-8012)  | 
|  CVE-2018-8768  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2018-8768](https://nvd.nist.gov/vuln/detail/CVE-2018-8768)  | 
|  CVE-2019-0204  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0204](https://nvd.nist.gov/vuln/detail/CVE-2019-0204)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-0205  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-0205](https://nvd.nist.gov/vuln/detail/CVE-2019-0205)  | 
|  CVE-2019-10086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10086](https://nvd.nist.gov/vuln/detail/CVE-2019-10086)  | 
|  CVE-2019-10086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10086](https://nvd.nist.gov/vuln/detail/CVE-2019-10086)  | 
|  CVE-2019-10086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10086](https://nvd.nist.gov/vuln/detail/CVE-2019-10086)  | 
|  CVE-2019-10086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10086](https://nvd.nist.gov/vuln/detail/CVE-2019-10086)  | 
|  CVE-2019-10099  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10099](https://nvd.nist.gov/vuln/detail/CVE-2019-10099)  | 
|  CVE-2019-10172  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-10172](https://nvd.nist.gov/vuln/detail/CVE-2019-10172)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-12086  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-12086](https://nvd.nist.gov/vuln/detail/CVE-2019-12086)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-14439  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-14439](https://nvd.nist.gov/vuln/detail/CVE-2019-14439)  | 
|  CVE-2019-16869  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16869](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)  | 
|  CVE-2019-16869  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-16869](https://nvd.nist.gov/vuln/detail/CVE-2019-16869)  | 
|  CVE-2019-17566  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17566](https://nvd.nist.gov/vuln/detail/CVE-2019-17566)  | 
|  CVE-2019-17566  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-17566](https://nvd.nist.gov/vuln/detail/CVE-2019-17566)  | 
|  CVE-2019-7611  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2019-7611](https://nvd.nist.gov/vuln/detail/CVE-2019-7611)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10650  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10650](https://nvd.nist.gov/vuln/detail/CVE-2020-10650)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10672  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10672](https://nvd.nist.gov/vuln/detail/CVE-2020-10672)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10673  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10673](https://nvd.nist.gov/vuln/detail/CVE-2020-10673)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10968  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10968](https://nvd.nist.gov/vuln/detail/CVE-2020-10968)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-10969  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-10969](https://nvd.nist.gov/vuln/detail/CVE-2020-10969)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11111  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11111](https://nvd.nist.gov/vuln/detail/CVE-2020-11111)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11112  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11112](https://nvd.nist.gov/vuln/detail/CVE-2020-11112)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11113  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11113](https://nvd.nist.gov/vuln/detail/CVE-2020-11113)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11619  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11619](https://nvd.nist.gov/vuln/detail/CVE-2020-11619)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11620  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11620](https://nvd.nist.gov/vuln/detail/CVE-2020-11620)  | 
|  CVE-2020-11988  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-11988](https://nvd.nist.gov/vuln/detail/CVE-2020-11988)  | 
|  CVE-2020-13692  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13692](https://nvd.nist.gov/vuln/detail/CVE-2020-13692)  | 
|  CVE-2020-13936  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13936](https://nvd.nist.gov/vuln/detail/CVE-2020-13936)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-13949  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-13949](https://nvd.nist.gov/vuln/detail/CVE-2020-13949)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14060  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14060](https://nvd.nist.gov/vuln/detail/CVE-2020-14060)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14061  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14061](https://nvd.nist.gov/vuln/detail/CVE-2020-14061)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14062  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14062](https://nvd.nist.gov/vuln/detail/CVE-2020-14062)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-14195  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-14195](https://nvd.nist.gov/vuln/detail/CVE-2020-14195)  | 
|  CVE-2020-17533  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-17533](https://nvd.nist.gov/vuln/detail/CVE-2020-17533)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24616  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24616](https://nvd.nist.gov/vuln/detail/CVE-2020-24616)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-24750  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-24750](https://nvd.nist.gov/vuln/detail/CVE-2020-24750)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-25649  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-25649](https://nvd.nist.gov/vuln/detail/CVE-2020-25649)  | 
|  CVE-2020-28491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-28491](https://nvd.nist.gov/vuln/detail/CVE-2020-28491)  | 
|  CVE-2020-35211  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35211](https://nvd.nist.gov/vuln/detail/CVE-2020-35211)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35490  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35490](https://nvd.nist.gov/vuln/detail/CVE-2020-35490)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35491  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35491](https://nvd.nist.gov/vuln/detail/CVE-2020-35491)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-35728  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-35728](https://nvd.nist.gov/vuln/detail/CVE-2020-35728)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36179  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36179](https://nvd.nist.gov/vuln/detail/CVE-2020-36179)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36180  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36180](https://nvd.nist.gov/vuln/detail/CVE-2020-36180)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36181  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36181](https://nvd.nist.gov/vuln/detail/CVE-2020-36181)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36182  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36182](https://nvd.nist.gov/vuln/detail/CVE-2020-36182)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36183  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36183](https://nvd.nist.gov/vuln/detail/CVE-2020-36183)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36184  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36184](https://nvd.nist.gov/vuln/detail/CVE-2020-36184)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36185  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36185](https://nvd.nist.gov/vuln/detail/CVE-2020-36185)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36186  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36186](https://nvd.nist.gov/vuln/detail/CVE-2020-36186)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36187  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36187](https://nvd.nist.gov/vuln/detail/CVE-2020-36187)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36188  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36188](https://nvd.nist.gov/vuln/detail/CVE-2020-36188)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36189  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36189](https://nvd.nist.gov/vuln/detail/CVE-2020-36189)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-36518  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-36518](https://nvd.nist.gov/vuln/detail/CVE-2020-36518)  | 
|  CVE-2020-9492  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2020-9492](https://nvd.nist.gov/vuln/detail/CVE-2020-9492)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-20190  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-20190](https://nvd.nist.gov/vuln/detail/CVE-2021-20190)  | 
|  CVE-2021-22573  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22573](https://nvd.nist.gov/vuln/detail/CVE-2021-22573)  | 
|  CVE-2021-22573  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22573](https://nvd.nist.gov/vuln/detail/CVE-2021-22573)  | 
|  CVE-2021-22573  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-22573](https://nvd.nist.gov/vuln/detail/CVE-2021-22573)  | 
|  CVE-2021-25646  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-25646](https://nvd.nist.gov/vuln/detail/CVE-2021-25646)  | 
|  CVE-2021-26919  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-26919](https://nvd.nist.gov/vuln/detail/CVE-2021-26919)  | 
|  CVE-2021-28165  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-28165](https://nvd.nist.gov/vuln/detail/CVE-2021-28165)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-31684  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-31684](https://nvd.nist.gov/vuln/detail/CVE-2021-31684)  | 
|  CVE-2021-33036  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-33036](https://nvd.nist.gov/vuln/detail/CVE-2021-33036)  | 
|  CVE-2021-33813  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-33813](https://nvd.nist.gov/vuln/detail/CVE-2021-33813)  | 
|  CVE-2021-33813  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-33813](https://nvd.nist.gov/vuln/detail/CVE-2021-33813)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-34538  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-34538](https://nvd.nist.gov/vuln/detail/CVE-2021-34538)  | 
|  CVE-2021-35515  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35515](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)  | 
|  CVE-2021-35515  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35515](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)  | 
|  CVE-2021-35515  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35515](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)  | 
|  CVE-2021-35515  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35515](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)  | 
|  CVE-2021-35515  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35515](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)  | 
|  CVE-2021-35515  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35515](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)  | 
|  CVE-2021-35515  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35515](https://nvd.nist.gov/vuln/detail/CVE-2021-35515)  | 
|  CVE-2021-35516  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35516](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)  | 
|  CVE-2021-35516  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35516](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)  | 
|  CVE-2021-35516  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35516](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)  | 
|  CVE-2021-35516  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35516](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)  | 
|  CVE-2021-35516  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35516](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)  | 
|  CVE-2021-35516  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35516](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)  | 
|  CVE-2021-35516  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35516](https://nvd.nist.gov/vuln/detail/CVE-2021-35516)  | 
|  CVE-2021-35517  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35517](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)  | 
|  CVE-2021-35517  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35517](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)  | 
|  CVE-2021-35517  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35517](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)  | 
|  CVE-2021-35517  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35517](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)  | 
|  CVE-2021-35517  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-35517](https://nvd.nist.gov/vuln/detail/CVE-2021-35517)  | 
|  CVE-2021-36090  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36090](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)  | 
|  CVE-2021-36090  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36090](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)  | 
|  CVE-2021-36090  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36090](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)  | 
|  CVE-2021-36090  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36090](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)  | 
|  CVE-2021-36090  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-36090](https://nvd.nist.gov/vuln/detail/CVE-2021-36090)  | 
|  CVE-2021-37136  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37136](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)  | 
|  CVE-2021-37136  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37136](https://nvd.nist.gov/vuln/detail/CVE-2021-37136)  | 
|  CVE-2021-37137  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37137](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)  | 
|  CVE-2021-37137  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37137](https://nvd.nist.gov/vuln/detail/CVE-2021-37137)  | 
|  CVE-2021-37714  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37714](https://nvd.nist.gov/vuln/detail/CVE-2021-37714)  | 
|  CVE-2021-37714  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37714](https://nvd.nist.gov/vuln/detail/CVE-2021-37714)  | 
|  CVE-2021-37714  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37714](https://nvd.nist.gov/vuln/detail/CVE-2021-37714)  | 
|  CVE-2021-37714  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-37714](https://nvd.nist.gov/vuln/detail/CVE-2021-37714)  | 
|  CVE-2021-46877  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2021-46877](https://nvd.nist.gov/vuln/detail/CVE-2021-46877)  | 
|  CVE-2022-24758  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-24758](https://nvd.nist.gov/vuln/detail/CVE-2022-24758)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25647  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25647](https://nvd.nist.gov/vuln/detail/CVE-2022-25647)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-25857  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-25857](https://nvd.nist.gov/vuln/detail/CVE-2022-25857)  | 
|  CVE-2022-31197  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-31197](https://nvd.nist.gov/vuln/detail/CVE-2022-31197)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-3171  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3171](https://nvd.nist.gov/vuln/detail/CVE-2022-3171)  | 
|  CVE-2022-34169  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-34169](https://nvd.nist.gov/vuln/detail/CVE-2022-34169)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3509  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3509](https://nvd.nist.gov/vuln/detail/CVE-2022-3509)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-3510  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-3510](https://nvd.nist.gov/vuln/detail/CVE-2022-3510)  | 
|  CVE-2022-36364  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-36364](https://nvd.nist.gov/vuln/detail/CVE-2022-36364)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-37866  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-37866](https://nvd.nist.gov/vuln/detail/CVE-2022-37866)  | 
|  CVE-2022-40146  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40146](https://nvd.nist.gov/vuln/detail/CVE-2022-40146)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40149  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40149](https://nvd.nist.gov/vuln/detail/CVE-2022-40149)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40150  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40150](https://nvd.nist.gov/vuln/detail/CVE-2022-40150)  | 
|  CVE-2022-40152  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40152](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)  | 
|  CVE-2022-40152  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-40152](https://nvd.nist.gov/vuln/detail/CVE-2022-40152)  | 
|  CVE-2022-41704  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-41704](https://nvd.nist.gov/vuln/detail/CVE-2022-41704)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42003  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42003](https://nvd.nist.gov/vuln/detail/CVE-2022-42003)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-42004  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42004](https://nvd.nist.gov/vuln/detail/CVE-2022-42004)  | 
|  CVE-2022-4244  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-4244](https://nvd.nist.gov/vuln/detail/CVE-2022-4244)  | 
|  CVE-2022-42890  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-42890](https://nvd.nist.gov/vuln/detail/CVE-2022-42890)  | 
|  CVE-2022-44729  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-44729](https://nvd.nist.gov/vuln/detail/CVE-2022-44729)  | 
|  CVE-2022-44729  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-44729](https://nvd.nist.gov/vuln/detail/CVE-2022-44729)  | 
|  CVE-2022-44729  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-44729](https://nvd.nist.gov/vuln/detail/CVE-2022-44729)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45685  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45685](https://nvd.nist.gov/vuln/detail/CVE-2022-45685)  | 
|  CVE-2022-45688  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45688](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)  | 
|  CVE-2022-45688  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45688](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)  | 
|  CVE-2022-45688  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45688](https://nvd.nist.gov/vuln/detail/CVE-2022-45688)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-45693  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-45693](https://nvd.nist.gov/vuln/detail/CVE-2022-45693)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2022-46751  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2022-46751](https://nvd.nist.gov/vuln/detail/CVE-2022-46751)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1370  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1370](https://nvd.nist.gov/vuln/detail/CVE-2023-1370)  | 
|  CVE-2023-1428  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1428](https://nvd.nist.gov/vuln/detail/CVE-2023-1428)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-1436  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-1436](https://nvd.nist.gov/vuln/detail/CVE-2023-1436)  | 
|  CVE-2023-20883  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-20883](https://nvd.nist.gov/vuln/detail/CVE-2023-20883)  | 
|  CVE-2023-24580  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-24580](https://nvd.nist.gov/vuln/detail/CVE-2023-24580)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-25194  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-25194](https://nvd.nist.gov/vuln/detail/CVE-2023-25194)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-2976  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-2976](https://nvd.nist.gov/vuln/detail/CVE-2023-2976)  | 
|  CVE-2023-31418  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-31418](https://nvd.nist.gov/vuln/detail/CVE-2023-31418)  | 
|  CVE-2023-32731  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-32731](https://nvd.nist.gov/vuln/detail/CVE-2023-32731)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34453  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34453](https://nvd.nist.gov/vuln/detail/CVE-2023-34453)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34454  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34454](https://nvd.nist.gov/vuln/detail/CVE-2023-34454)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34455  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34455](https://nvd.nist.gov/vuln/detail/CVE-2023-34455)  | 
|  CVE-2023-34610  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-34610](https://nvd.nist.gov/vuln/detail/CVE-2023-34610)  | 
|  CVE-2023-36053  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-36053](https://nvd.nist.gov/vuln/detail/CVE-2023-36053)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-3635  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-3635](https://nvd.nist.gov/vuln/detail/CVE-2023-3635)  | 
|  CVE-2023-36478  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-36478  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-36478](https://nvd.nist.gov/vuln/detail/CVE-2023-36478)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-39410  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-39410](https://nvd.nist.gov/vuln/detail/CVE-2023-39410)  | 
|  CVE-2023-41164  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-41164](https://nvd.nist.gov/vuln/detail/CVE-2023-41164)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43642  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43642](https://nvd.nist.gov/vuln/detail/CVE-2023-43642)  | 
|  CVE-2023-43665  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-43665](https://nvd.nist.gov/vuln/detail/CVE-2023-43665)  | 
|  CVE-2023-46120  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-46120](https://nvd.nist.gov/vuln/detail/CVE-2023-46120)  | 
|  CVE-2023-46695  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-46695](https://nvd.nist.gov/vuln/detail/CVE-2023-46695)  | 
|  CVE-2023-4759  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-4759](https://nvd.nist.gov/vuln/detail/CVE-2023-4759)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-5072  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-5072](https://nvd.nist.gov/vuln/detail/CVE-2023-5072)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6378  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6378](https://nvd.nist.gov/vuln/detail/CVE-2023-6378)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2023-6481  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2023-6481](https://nvd.nist.gov/vuln/detail/CVE-2023-6481)  | 
|  CVE-2024-21634  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-21634](https://nvd.nist.gov/vuln/detail/CVE-2024-21634)  | 
|  CVE-2024-24680  |  높음  |  [https://nvd.nist.gov/vuln/detail/CVE-2024-24680](https://nvd.nist.gov/vuln/detail/CVE-2024-24680)  | 

## 7.2.0 릴리스 정보
<a name="emr-720-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.2.0에 대한 정보가 포함됩니다. 변경 사항은 7.2.0에 관련됩니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.2.0 application upgrades include Iceberg 1.5.0-amzn-0 and Delta 3.1.0.
+ Amazon EMR은 Amazon S3 Express One Zone 스토리지 클래스에서 HBase, Flink 및 Hive와 같은 다른 애플리케이션을 사용할 수 있도록 지원을 추가합니다.
+ 이 릴리스에서는 복원된 객체를 읽을 수 있는 기능을 추가하므로, `S3A` 프로토콜로 S3 위치에서 Glacier 객체를 읽을 수 있습니다. 이 기능은 Spark, Flink 및 Hive에서 작동합니다.
+ 관리형 조정을 사용하는 노드 레이블 - 시장 유형 또는 노드 유형에 따라 인스턴스에 노드 레이블을 사용하여 Amazon EMR에서 자동 조정을 개선합니다. 자세한 내용은 [Amazon EMR에서 관리형 조정 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html)을 참조하세요.

**알려진 문제**
+ Python 3.11은 EMR Studio에서 지원되지 않습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스에서는 노드에 스레드 수가 많거나 파일 핸들이 열려 있을 때 인스턴스의 상태를 모니터링하는 온클러스터 인스턴스 상태 스크립트에서 과도한 CPU 및 메모리 리소스를 명확하게 표시하지 않고 소비하는 문제가 수정되었습니다.
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ 이 릴리스는 내부 단계 정리 작업 중에 발생할 수 있는 교착 문제를 수정합니다. 이 작업은 EMR 클러스터에서 완료할 때 단계의 수명 주기를 관리합니다. 이 문제는 단계 작업 및 조정과 같은 중요한 Amazon EMR 작업에 영향을 미칩니다.
+ 이 릴리스는 특정 기존 로그 파일이 있는 사용자 지정 AMI를 사용하는 사용자 지정 클러스터로 인해 Amazon EMR 로그 관리 대몬이 실패할 수 있는 문제를 해결합니다.
+ Amazon EMR 7.2.0은 클러스터 관리 및 모니터링 활동을 담당하는 Amazon EMR 데몬을 AWS SDK v1에서 v2로 업그레이드합니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-720-release.html)

## 7.2.0 기본 Java 버전
<a name="emr-720-jdk"></a>

Amazon EMR 릴리스 7.2 이상에서는 Apache Livy를 제외한 Corretto 17(JDK 17)을 지원하는 애플리케이션에 대해 기본적으로 Amazon Corretto 17(OpenJDK 기반)이 함께 제공됩니다.

다음 표에서는 Amazon EMR 7.2.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 21, 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 7.2.0 구성 요소 버전
<a name="emr-720-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.1.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.4.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.11.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.15.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.16.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.32.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.11.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.2.2 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.63.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.18.1-amzn-1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.18.1-amzn-1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.3.6-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.6-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.6-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.6-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.6-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.6-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.6-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.17-amzn-6 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.17-amzn-6 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.17-amzn-6 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.17-amzn-6 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.17-amzn-6 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.17-amzn-6 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-11 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-11 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-11 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-11 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-11 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-11 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-11 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.14.1-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.14.1-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.14.1-amzn-1 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.14.1-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.5.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.3 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.285-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.285-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.285-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 436-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 436-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 436-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.1-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.1-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.1-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.1-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 24.02.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-9 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-9 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.1-amzn-1 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.1-amzn-1 | ZooKeeper 명령줄 클라이언트. | 

## 7.2.0 구성 분류
<a name="emr-720-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.2.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.2.0 변경 로그
<a name="720-changelog"></a>


**7.2.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-09-03 | 문서 개정 | Amazon EMR 7.2.0 릴리스 정보 추가됨 | 
| 2024-07-25 | 문서 게시 | Amazon EMR 7.2.0 릴리스 정보 최초 게시됨 | 
| 2024-07-16 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 7.2.0 최초 배포됨 | 

# Amazon EMR 릴리스 7.1.0
<a name="emr-710-release"></a>

## 7.1.0 애플리케이션 버전
<a name="emr-710-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.25.70, 1.12.747 | 2.23.18, 1.12.705 | 2.23.18, 1.12.656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9 | 
| Scala | 2.12.18 | 2.12.17 | 2.12.17 | 2.12.17 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1.18.1-amzn-2 | 1.18.1-amzn-1 | 1.18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.4.17-amzn-7 | 2.4.17-amzn-6 | 2.4.17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 0.15.0-amzn-0 | 0.14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.5.2-amzn-0 | 1.5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.7.1-incubating | 
| MXNet |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.285-amzn-1 | 0.285-amzn-0 | 0.284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

## 7.1.0 릴리스 정보
<a name="emr-710-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.1.0에 대한 정보가 포함됩니다. 변경 사항은 7.1.0에 관련됩니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.1.0 application upgrades include Livy 0.8.0, Trino 435, and ZooKeeper 3.9.1.
+ [https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-node-replacement.html](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-node-replacement.html) - Amazon EMR 7.1.0 이상에서는 비정상 노드 교체가 기본적으로 활성화되므로 Amazon EMR이 비정상 노드를 정상적으로 교체합니다. Amazon EMR 릴리스 7.0.0 이하의 기존 워크플로에 영향을 주지 않도록 클러스터에서 종료 방지를 활성화한 경우 비정상 노드 교체는 비활성화됩니다.
+ [https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-AmazonCloudWatchAgent.html](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-AmazonCloudWatchAgent.html) - Amazon EMR 구성 API를 사용하여 추가 시스템 지표를 사용하고, 애플리케이션 지표를 추가하며, 지표 대상을 변경하도록 CloudWatch 에이전트를 구성합니다.

**알려진 문제**
+ 이 릴리스에서는 애플리케이션 JupyterEnterpriseGateway(JEG)가 Python 3.11을 지원하지 않습니다.
+ 노드에 스레드 및/또는 열린 파일 핸들이 많은 경우 인스턴스의 상태를 모니터링하는 클러스터 내 인스턴스 상태 스크립트는 CPU 및 메모리 리소스를 과도하게 소비할 수 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ Amazon EMR 7.1.0은 기본적으로 Python 3.9를 지원하지만 Amazon EMR 7.1.0의 Livy 0.8.0 및 Spark는 Python 3.11을 지원합니다.
+ 이 릴리스에서는 PySpark를 Python 버전 3.11과 함께 사용할 때 한 번에 하나씩 각 줄을 실행해야 하던 문제를 수정합니다.
+ **Zeppelin 업그레이드** - Amazon EMR 7.1.0에는 Java v2용 AWS SDK로 Zeppelin 업그레이드가 포함되어 있습니다. 이 업그레이드를 통해 Zeppelin S3 노트북은 사용자 지정 암호화 구성 요소 제공업체를 수락할 수 있습니다. Java v2용 AWS SDK는 EncryptionMaterialsProvider 인터페이스를 제거합니다. Amazon EMR 7.1.0으로 업그레이드하는 경우 사용자 지정 암호화를 사용하려면 [Keyring 인터페이스](https://github.com/aws/amazon-s3-encryption-client-java/blob/main/src/main/java/software/amazon/encryption/s3/materials/Keyring.java)를 구현해야 합니다. 키링 인터페이스를 구현하는 방법의 예제는 [KmsKeyring.java](https://github.com/aws/amazon-s3-encryption-client-java/blob/a5d714fe27f97793997e41745939ef7da8a22167/src/main/java/software/amazon/encryption/s3/materials/KmsKeyring.java#L36)를 참조하세요.
+ Amazon EMR 릴리스 7.1.0으로 업그레이드하는 경우 AES/GCM/NoPadding 의 AES 알고리즘을 사용하여 키를 생성하도록 로컬 디스크 암호화에 대한 사용자 지정 키 제공업체를 변경합니다. 알고리즘을 업데이트하지 않으면 `Local disk encryption failed on master instance (i-123456789) due to internal error.` 오류와 함께 클러스터 생성이 실패할 수 있습니다. 사용자 지정 키 제공업체 생성에 대한 자세한 내용은 [사용자 지정 키 제공업체 생성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-encryption-enable.html#emr-custom-keys)을 참조하세요.
+ Amazon EMR 7.1.0은 파일 핸들이 열려 있는 파일에 대한 로그 잘림 로직을 개선하여 디스크 공간 부족 조건에서 노드의 복원력을 개선합니다.
+ 이 릴리스는 인코딩 및 디코딩 로직을 개선하여 노드를 재시작할 때 Amazon EMR 대몬의 읽기 및 쓰기 파일을 사용하여 데이터 손상 및 노드 실패 위험을 최소화합니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-710-release.html)

## 7.1.0 기본 Java 버전
<a name="emr-710-jdk"></a>

Amazon EMR 릴리스 7.1 이상에서는 Apache Livy를 제외한 Corretto 17(JDK 17)을 지원하는 애플리케이션에 대해 기본적으로 Amazon Corretto 17(OpenJDK 기반)이 함께 제공됩니다.

다음 표에서는 Amazon EMR 7.1.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 17, 11, 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 7.1.0 구성 요소 버전
<a name="emr-710-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.0.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-amazon-cloudwatch-agent | 1.300032.2-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.10.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.14.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.31.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.10.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.2.2 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.62.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.18.1-amzn-0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.18.1-amzn-0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.3.6-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.6-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.6-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.6-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-3 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.6-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.6-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.6-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.17-amzn-5 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.17-amzn-5 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.17-amzn-5 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.17-amzn-5 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.17-amzn-5 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.17-amzn-5 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-10 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-10 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-10 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-10 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-10 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-10 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-10 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.14.1-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.14.1-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.14.1-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.14.1-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.4.3-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.8.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.3 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.284-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.284-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.284-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 435-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 435-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 435-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.0-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.0-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.0-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.0-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 23.10.0-amzn-1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-8 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-8 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.9.1-amzn-0 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.9.1-amzn-0 | ZooKeeper 명령줄 클라이언트. | 

## 7.1.0 구성 분류
<a name="emr-710-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.1.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-logback | ZooKeeper logback.xml 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| emr-metrics | 이 노드에 대한 emr 지표 설정을 변경합니다. | Restarts the CloudWatchAgent service. | 

## 7.1.0 변경 로그
<a name="710-changelog"></a>


**7.1.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-09-03 | 문서 개정 | Amazon EMR 7.1.0 릴리스 정보에 알려진 문제 추가됨 | 
| 2024-05-10 | 문서 게시 | Amazon EMR 7.1.0 릴리스 정보 최초 게시됨 | 
| 2024-05-10 | 문서 게시 | Amazon EMR 7.1.0 릴리스 정보 최초 게시됨 | 
| 2024-05-08 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.1.0 전체 배포됨 | 
| 2024-04-23 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 7.1.0 최초 배포됨 | 

# Amazon EMR 릴리스 7.0.0
<a name="emr-700-release"></a>

## 7.0.0 애플리케이션 버전
<a name="emr-700-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html](https://docs.aws.amazon.com/AmazonCloudWatch/latest/monitoring/Install-CloudWatch-Agent.html), [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-7.3.0 | emr-7.2.0 | emr-7.1.0 | emr-7.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.25.70, 1.12.747 | 2.23.18, 1.12.705 | 2.23.18, 1.12.656 | 2.20.160-amzn-0, 1.12.569 | 
| Python | 3.9, 3.11 | 3.9, 3.11 | 3.9, 3.11 | 3.9 | 
| Scala | 2.12.18 | 2.12.17 | 2.12.17 | 2.12.17 | 
| AmazonCloudWatchAgent | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300032.2-amzn-0 | 1.300031.1-amzn-0 | 
| Delta | 3.2.0-amzn-0 | 3.1.0 | 3.0.0 | 3.0.0 | 
| Flink | 1.18.1-amzn-2 | 1.18.1-amzn-1 | 1.18.1-amzn-0 | 1.18.0-amzn-0 | 
| Ganglia |  -  |  -  |  -  |  -  | 
| HBase | 2.4.17-amzn-7 | 2.4.17-amzn-6 | 2.4.17-amzn-5 | 2.4.17-amzn-4 | 
| HCatalog | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hadoop | 3.3.6-amzn-5 | 3.3.6-amzn-4 | 3.3.6-amzn-3 | 3.3.6-amzn-2 | 
| Hive | 3.1.3-amzn-12 | 3.1.3-amzn-11 | 3.1.3-amzn-10 | 3.1.3-amzn-9 | 
| Hudi | 0.15.0-amzn-0 | 0.14.1-amzn-1 | 0.14.1-amzn-0 | 0.14.0-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.5.2-amzn-0 | 1.5.0-amzn-0 | 1.4.3-amzn-0 | 1.4.2-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.5.0 | 
| Livy | 0.8.0-incubating | 0.8.0-incubating | 0.8.0-incubating | 0.7.1-incubating | 
| MXNet |  -  | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.285-amzn-1 | 0.285-amzn-0 | 0.284-amzn-0 | 0.283-amzn-1 | 
| Spark | 3.5.1-amzn-1 | 3.5.1-amzn-0 | 3.5.0-amzn-1 | 3.5.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.16.1 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-10 | 0.10.2-amzn-9 | 0.10.2-amzn-8 | 0.10.2-amzn-7 | 
| Trino (PrestoSQL) | 442-amzn-0 | 436-amzn-0 | 435-amzn-0 | 426-amzn-1 | 
| Zeppelin | 0.11.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.9.1-amzn-1 | 3.9.1-amzn-1 | 3.9.1-amzn-0 | 3.5.10 | 

## 7.0.0 릴리스 정보
<a name="emr-700-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 7.0.0에 대한 정보가 포함됩니다. 변경 사항은 6.15.0에 관련됩니다.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 7.0.0 application upgrades include Python 3.9, Spark 3.5, Flink 1.18, and Delta 3.0. 또한 이번 릴리스에서는 [Amazon CloudWatch 에이전트](emr-AmazonCloudWatchAgent.md) 애플리케이션에 대한 지원이 추가되고 Ganglia에 대한 지원이 제거됩니다.
+ **Amazon Corretto 17** - Amazon EMR 릴리스 7.0 이상에서는 Apache Livy를 제외한 Corretto 17(JDK 17)을 지원하는 애플리케이션에 대해 기본적으로 Amazon Corretto 17(OpenJDK 기반)이 함께 제공됩니다. 이번 릴리스에서 지원되는 애플리케이션의 JDK 버전에 대한 자세한 내용을 확인하려면 [7.0.0 기본 Java 버전](#emr-700-jdk) 섹션을 참조하세요.
+ **Amazon Linux 2023** – 7.0 릴리스를 사용하면 이제 Amazon EMR 클러스터가 기본적으로 AL2023에서 실행됩니다. 이러한 변경이 기본 AMI 버전에 어떤 영향을 미치는지에 대한 자세한 내용을 확인하려면 *Amazon EMR 관리 안내서*의 [소프트웨어 업데이트 고려 사항](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html#emr-default-ami-managing)을 참조하세요. 또한 AL2023에서 Python 2.7이 제거되었으므로 이제 Python이 필요한 모든 구성 요소는 Python 3을 이용하여 작성해야 합니다.
+ **`s3a`가 포함된 S3 on Outpost** – 이제 Amazon EMR에서는 `s3a` 파일 시스템이 포함된 Amazon S3 on Outposts 버킷을 지원합니다. Outposts의 Amazon S3에 대한 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*에서 [S3 on Outposts이란](https://docs.aws.amazon.com/AmazonS3/latest/userguide/S3onOutposts.html)을 참조하세요.

**알려진 문제**
+ PySpark를 Python 버전 3.10 이상과 함께 사용하는 경우 한 번에 두 개 이상의 줄을 실행할 수 없습니다. 한 번에 한 줄씩 실행해야 합니다.
+ 노드에 스레드 및/또는 열린 파일 핸들이 많은 경우 인스턴스의 상태를 모니터링하는 클러스터 내 인스턴스 상태 스크립트는 CPU 및 메모리 리소스를 과도하게 소비할 수 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ 클러스터에 있는 모든 인스턴스의 상태를 유지하기 위해 Amazon EMR은 Apache YARN, Apache HDFS 및 Kerberos와 통합됩니다. 7.0에서는 이러한 통합 기능을 개선하여 확장 또는 기타 작업으로 인해 종료된 인스턴스의 상태를 안정적으로 제거할 수 있도록 했습니다. 이러한 노력은 관리형 확장이 활성화된 오래된 클러스터의 경우, 자주 규모를 조정하고 수명 기간 동안 종료된 인스턴스가 수천 개 누적되기 때문에 특히 중요합니다.
+ 이번 릴리스는 Kerberos 구성을 개선하여 AES 기반 암호만 지원하도록 했습니다. AES 기반이 아닌 암호를 사용하는 Kerberos KDC는 Amazon EMR 릴리스 7.0.0 이상에서 실행되는 EMR 클러스터에서 더 이상 지원되지 않습니다. AES 기반 암호는 클러스터에 가장 강력한 보안을 제공합니다.
+  AWS SDK 2.x 마이그레이션의 일환으로 Amazon EMR 7.0에는 호환성을 위해 Spark Kinesis 커넥터에 대한 업데이트가 포함되어 있습니다. 이 업데이트는 커뮤니티 버전의 Apache Spark에서는 이용할 수 없습니다. 7.0 미만의 Amazon EMR 릴리스에서 Spark Kinesis 커넥터를 사용하는 경우, 워크로드를 Amazon EMR 7.0으로 마이그레이션하기 전에 애플리케이션 코드를 마이그레이션하여 SDK 2.x에서 실행되도록 해야 합니다. 자세한 내용은 [Spark Kinesis 커넥터를 Amazon EMR 7.0용 SDK 2.x로 마이그레이션](migrating-spark-kinesis.md) 단원을 참조하십시오.
+ Amazon EMR 7.x 이상에서는 `aws-sagemaker-spark-sdk` 구성 요소를 사용할 수 없습니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-700-release.html)

## 7.0.0 기본 Java 버전
<a name="emr-700-jdk"></a>

Amazon EMR 릴리스 7.0 이상에서는 Apache Livy를 제외한 Corretto 17(JDK 17)을 지원하는 애플리케이션에 대해 기본적으로 Amazon Corretto 17(OpenJDK 기반)이 함께 제공됩니다.

다음 표에서는 Amazon EMR 7.0.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 11, 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 7.0.0 구성 요소 버전
<a name="emr-700-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| adot-java-agent | 1.31.0 | 애플리케이션 대몬(daemon)에서 지표를 수집하는 Java 에이전트입니다. | 
| delta | 3.0.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| delta-standalone-connectors | 0.6.0 | Delta 커넥터는 Delta Lake를 Flink, Hive, Presto와 같은 엔진과 통합하기 위한 다양한 런타임을 제공합니다. | 
| emr-amazon-cloudwatch-agent | 1.300031.1-amzn-0 | Amazon EC2 인스턴스에서 내부 시스템 수준 지표와 사용자 지정 애플리케이션 지표를 수집하는 애플리케이션입니다. | 
| emr-ddb | 5.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.9.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.13.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.30.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.9.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.2.1 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.61.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.18.0-amzn-0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.18.0-amzn-0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| hadoop-client | 3.3.6-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.6-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.6-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.6-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-2 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.6-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.6-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.6-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.17-amzn-4 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.17-amzn-4 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.17-amzn-4 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.17-amzn-4 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.17-amzn-4 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.17-amzn-4 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-9 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-9 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-9 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-9 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-9 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-9 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-9 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.14.0-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.14.0-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.14.0-amzn-1 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.14.0-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.4.2-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.3 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.283-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.283-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.283-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 426-amzn-1 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 426-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 426-amzn-1 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.3.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.5.0-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.5.0-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.5.0-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.5.0-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 23.10.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-7 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-7 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.58 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 7.0.0 구성 분류
<a name="emr-700-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-7.0.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 7.0.0 변경 로그
<a name="700-changelog"></a>


**7.0.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-09-03 | 문서 개정 | Amazon EMR 7.0.0 릴리스 정보에 알려진 문제 추가됨 | 
| 2023-12-29 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 7.0.0 전체 배포됨 | 
| 2023-12-28 | 문서 게시 | Amazon EMR 7.0.0 릴리스 정보 최초 게시됨 | 
| 2023-12-19 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 7.0.0 최초 배포됨 | 

# Amazon EMR 6.x 릴리스 버전
<a name="emr-release-6x"></a>

이 섹션에는 각 Amazon EMR 6.x 릴리스 버전에 제공되는 애플리케이션 버전, 릴리스 정보, 구성 요소 버전 및 구성 분류가 포함되어 있습니다.

클러스터를 시작할 때 Amazon EMR의 여러 릴리스 중에서 선택할 수 있습니다. 이를 통해 호환성 요구 사항에 맞는 애플리케이션 버전을 테스트하고 사용할 수 있습니다. *릴리스 레이블*과 함께 릴리스 번호를 지정합니다. 릴리스 레이블은 `emr-x.x.x` 형식입니다. 예를 들어 `emr-7.12.0`입니다.

새 Amazon EMR 릴리스는 최초 릴리스 날짜에 첫 번째 리전부터 시작하여 일정 기간에 걸쳐 여러 리전에 사용 가능해집니다. 이 기간에는 사용자 리전에서 최신 릴리스 버전이 제공되지 않을 수도 있습니다.

모든 Amazon EMR 6.x 릴리스에서 애플리케이션 버전의 전체 테이블은 [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md) 섹션을 참조하세요.

**Topics**
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 릴리스 6.15.0](emr-6150-release.md)
+ [Amazon EMR 릴리스 6.14.0](emr-6140-release.md)
+ [Amazon EMR 릴리스 6.13.0](emr-6130-release.md)
+ [Amazon EMR 릴리스 6.12.0](emr-6120-release.md)
+ [Amazon EMR 릴리스 6.11.1](emr-6111-release.md)
+ [Amazon EMR 릴리스 6.11.0](emr-6110-release.md)
+ [Amazon EMR 릴리스 6.10.1](emr-6101-release.md)
+ [Amazon EMR 릴리스 6.10.0](emr-6100-release.md)
+ [Amazon EMR 릴리스 6.9.1](emr-691-release.md)
+ [Amazon EMR 릴리스 6.9.0](emr-690-release.md)
+ [Amazon EMR 릴리스 6.8.1](emr-681-release.md)
+ [Amazon EMR 릴리스 6.8.0](emr-680-release.md)
+ [Amazon EMR 릴리스 6.7.0](emr-670-release.md)
+ [Amazon EMR 릴리스 6.6.0](emr-660-release.md)
+ [Amazon EMR 릴리스 6.5.0](emr-650-release.md)
+ [Amazon EMR 릴리스 6.4.0](emr-640-release.md)
+ [Amazon EMR 릴리스 6.3.1](emr-631-release.md)
+ [Amazon EMR 릴리스 6.3.0](emr-630-release.md)
+ [Amazon EMR 릴리스 6.2.1](emr-621-release.md)
+ [Amazon EMR 릴리스 6.2.0](emr-620-release.md)
+ [Amazon EMR 릴리스 6.1.1](emr-611-release.md)
+ [Amazon EMR 릴리스 6.1.0](emr-610-release.md)
+ [Amazon EMR 릴리스 6.0.1](emr-601-release.md)
+ [Amazon EMR 릴리스 6.0.0](emr-600-release.md)

# Amazon EMR 6.x 릴리스의 애플리케이션 버전
<a name="emr-release-app-versions-6.x"></a>

다음 테이블에는 각 Amazon EMR 6.x 릴리스에서 사용할 수 있는 애플리케이션 버전이 나와 있습니다.


**애플리케이션 버전 정보**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.20.160-amzn-0, 1.12.569 | 1.12.543 | 1.12.513 | 1.12.490 | 1.12.446 | 1.12.446 | 1.12.397 | 1.12.397 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.31 | 1.12.31 | 1.11.977 | 1.11.977 | 1.11.880 | 1.11.880 | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 350 | 350 | 343 | 343 | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

# Amazon EMR 릴리스 6.15.0
<a name="emr-6150-release"></a>

## 6.15.0 애플리케이션 버전
<a name="emr-6150-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.15.0 | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 2.20.160-amzn-0, 1.12.569 | 1.12.543 | 1.12.513 | 1.12.490 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Flink | 1.17.1-amzn-1 | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-3 | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 
| HCatalog | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hadoop | 3.3.6-amzn-1 | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 
| Hive | 3.1.3-amzn-8 | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 
| Hudi | 0.14.0-amzn-0 | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.4.0-amzn-0 | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.283-amzn-0 | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 
| Spark | 3.4.1-amzn-2 | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-6 | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 
| Trino (PrestoSQL) | 426-amzn-0 | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.15.0 릴리스 정보
<a name="emr-6150-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.15.0에 대한 정보가 포함됩니다. 변경 사항은 6.14.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [6.15.0 변경 로그](#6150-changelog) 섹션을 참조하세요.

**새로운 기능**
+ **애플리케이션 업그레이드** – Amazon EMR 6.15.0 application upgrades include Apache Hadoop 3.3.6, Apache Hudi 0.14.0-amzn-0, Iceberg 1.4.0-amzn-0, and Trino 426.
+ **[EC2에서 실행되는 EMR 클러스터의 실행 속도 향상](https://aws.amazon.com/about-aws/whats-new/2023/11/amazon-emr-ec2-clusters-5-minutes-less/)** – 이제 EC2 클러스터에서 Amazon EMR을 실행하는 속도가 최대 35% 빨라졌습니다. 이번 개선 덕분에 고객은 대부분 대략 5분 만에 클러스터를 시작할 수 있게 되었습니다.
+ **[EMR Studio용 CodeWhisperer](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio-codewhisperer.html)** – 이제 JupyterLab에서 코드를 작성할 때 Amazon CodeWhisperer와 Amazon EMR Studio를 함께 사용하면 실시간으로 권장 사항을 받을 수 있습니다. CodeWhisperer에서는 설명을 작성하고, 코드 한 줄을 완성하고, 라인별 권장 사항을 만들고, 완전한 형식의 함수를 생성할 수 있습니다.
+ **[Flink를 사용한 더욱 빠른 작업 재시작 시간](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/flink-restart.html)** – Amazon EMR 6.15.0 이상을 사용하면 태스크 복구 또는 규모 조정 작업 중에 작업 재시작 시간을 단축하기 위해 Apache Flink에 대해 이제 몇 가지 새로운 메커니즘을 사용할 수 있습니다. 이는 실행 그래프의 복구 및 재시작 속도를 최적화하여 작업 안정성을 향상시킵니다.
+ **[개방형 테이블 형식에 대한 테이블 수준 및 세분화된 액세스 제어 -](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lf-enable.html)** Amazon EMR 6.15.0 이상에서는 Glue 데이터 카탈로그의 데이터에 액세스하는 EC2 클러스터의 Amazon EMR에서 Spark 작업을 실행할 때 AWS AWS Lake Formation 를 사용하여 Hudi, Iceberg 또는 Delta Lake 기반 테이블에 테이블, 행, 열 및 셀 수준 권한을 적용할 수 있습니다.
+ **Hadoop 업그레이드** - Amazon EMR 6.15.0에는 Apache Hadoop의 버전 3.3.6으로의 업그레이드가 포함되어 있습니다. Hadoop 3.3.6은 Amazon EMR 6.15가 배포되었을 시점에 최신 버전이었으며 Apache에서 2023년 6월에 릴리스했습니다. Amazon EMR의 이전 릴리스(6.9.0\$16.14.x) 에서는 Hadoop 3.3.3이 사용되었습니다.

  업그레이드에는 재구성 가능한 데이터노드 파라미터, 모든 라이브 데이터노드에서 대량 재구성 작업을 시작하는 `DFSAdmin` 옵션, 탐색이 많은 리더가 읽을 여러 범위를 지정할 수 있도록 하는 벡터 API 등 수백 가지 개선 사항과 수정 사항이 포함되어 있습니다. Hadoop 3.3.6에서는 WAL(미리 쓰기 로그)에 대한 HDFS API 및 의미 체계에 대한 지원도 추가되어 HBase가 다른 스토리지 시스템 구현에서 실행될 수 있습니다. 자세한 내용을 확인하려면*Apache Hadoop 하둡 설명서*에서 버전 [3.3.4](https://hadoop.apache.org/docs/r3.3.4/hadoop-project-dist/hadoop-common/release/3.3.4/CHANGELOG.3.3.4.html), [3.3.5](https://hadoop.apache.org/docs/r3.3.5/hadoop-project-dist/hadoop-common/release/3.3.5/CHANGELOG.3.3.5.html) 및 [3.3.6](https://hadoop.apache.org/docs/r3.3.6/hadoop-project-dist/hadoop-common/release/3.3.6/CHANGELOG.3.3.6.html)의 변경 로그를 참조하세요.
+ ** AWS SDK for Java 버전 2 지원** - 애플리케이션이 v2를 지원하는 경우 Amazon EMR 6.15.0 애플리케이션은 AWS SDK for Java 버전 [1.12.569](https://github.com/aws/aws-sdk-java/tree/1.12.569) 또는 [2.20.160](https://github.com/aws/aws-sdk-java-v2/tree/2.20.160)을 사용할 수 있습니다. Java 2.x용 AWS SDK는 버전 1.x 코드 베이스의 주요 재작성입니다. Java 8\$1에 토대를 두고 있으며, 요청이 많았던 기능들을 몇 가지 추가했습니다. 여기에는 비차단 I/O에 대한 지원과 런타임에 다른 HTTP 구현을 연결하는 기능이 포함됩니다. **Java용 SDK v1에서 v2로의 마이그레이션 가이드**를 포함한 자세한 내용을 확인하려면 [AWS Java용 SDK, 버전 2](https://docs.aws.amazon.com/sdk-for-java) 가이드를 참조하세요.

**알려진 문제**
+ 노드에 스레드 및/또는 열린 파일 핸들이 많은 경우 인스턴스의 상태를 모니터링하는 클러스터 내 인스턴스 상태 스크립트는 CPU 및 메모리 리소스를 과도하게 소비할 수 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ 고가용성 EMR 클러스터를 개선하기 위해 이번 릴리스에서는 IPv6 엔드포인트를 사용하는 로컬 호스트의 Amazon EMR 대몬(daemon)에 대한 연결을 지원합니다.
+ 이번 릴리스는 고가용성 클러스터의 모든 프라이머리 노드에 프로비저닝된 ZooKeeper와의 통신을 위한 TLS 1.2가 지원합니다.
+ 이번 릴리스에서는 로그 파일이 범위를 초과하여 클러스터 작업을 방해하는 시나리오를 최소화하기 위해 프라이머리 노드에서 유지되는 ZooKeeper 트랜잭션 로그 파일의 관리를 개선합니다.
+ 이번 릴리스는 고가용성 EMR 클러스터에 대한 노드 내 통신의 복원력을 강화합니다. 이러한 개선 사항은 부트스트랩 작업 실패나 클러스터 시작 실패 가능성을 줄입니다.
+ Amazon EMR 6.15.0의 Tez는 Tez 그룹화된 분할에서 입력 분할을 비동기적으로 열도록 지정할 수 있는 구성을 도입합니다. 그 결과 단일 Tez 그룹화된 분할에 많은 수의 입력 분할이 있을 경우 읽기 쿼리 성능이 더욱 빨라집니다. 자세한 내용을 확인하려면 [Tez 비동기식 분할 열기](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/tez-configure.html#tez-configure-async)를 참조하세요.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-6150-release.html)

## 6.15.0 기본 Java 버전
<a name="emr-6150-jdk"></a>

Amazon EMR 릴리스 6.12.0 이상에서는 기본적으로 Amazon Corretto 8을 사용하는 모든 애플리케이션을 지원합니다(단, Trino는 예외임). Trino와 관련하여 Amazon EMR은 Amazon EMR 릴리스 6.9.0부터 Amazon Corretto 17을 기본적으로 지원합니다. 또한 Amazon EMR은 Amazon Corretto 11 및 17을 사용하는 일부 애플리케이션도 지원합니다. 이 애플리케이션은 다음 테이블에 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.

Amazon EMR은 Apache Spark, Apache Hadoop, Apache Hive에서 Amazon Corretto 11과 17을 모두 지원하지만, 이 버전의 Corretto를 사용하면 일부 워크로드의 성능이 저하될 수 있습니다. 기본값을 변경하기 전에 워크로드를 테스트하는 것이 좋습니다.

다음 표에서는 Amazon EMR 6.15.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 6.15.0 구성 요소 버전
<a name="emr-6150-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.4.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| delta-standalone-connectors | 0.6.0 | Delta 커넥터는 Delta Lake를 Flink, Hive, Presto와 같은 엔진과 통합하기 위한 다양한 런타임을 제공합니다. | 
| emr-ddb | 5.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.8.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.12.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.29.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.8.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.2.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.60.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.17.1-amzn-1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.17.1-amzn-1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.6-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.6-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.6-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.6-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.6-amzn-1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.6-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.6-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.6-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.6-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.6-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.6-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.17-amzn-3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.17-amzn-3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.17-amzn-3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.17-amzn-3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.17-amzn-3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.17-amzn-3 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-8 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-8 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-8 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-8 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-8 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-8 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-8 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.14.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.14.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.14.0-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.14.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.4.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.3 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.283-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.283-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.283-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 426-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 426-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 426-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.4.1-amzn-2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.4.1-amzn-2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.4.1-amzn-2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.4.1-amzn-2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 23.08.1-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-6 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-6 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.15.0 구성 분류
<a name="emr-6150-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.15.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.15.0 변경 로그
<a name="6150-changelog"></a>


**6.15.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-09-03 | 문서 개정 | Amazon EMR 6.15.0 릴리스 정보에 알려진 문제 추가됨 | 
| 2023-11-17 | 문서 게시 | Amazon EMR 6.15.0 릴리스 정보 최초 게시됨 | 
| 2023-11-17 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.15.0 전체 배포됨 | 
| 2023-11-13 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 6.15.0 최초 배포됨 | 

# Amazon EMR 릴리스 6.14.0
<a name="emr-6140-release"></a>

## 6.14.0 애플리케이션 버전
<a name="emr-6140-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.14.0 | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.543 | 1.12.513 | 1.12.490 | 1.12.446 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.4.0 | 2.2.0 | 
| Flink | 1.17.1-amzn-0 | 1.17.0 | 1.17.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-2 | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 
| HCatalog | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hadoop | 3.3.3-amzn-6 | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 
| Hive | 3.1.3-amzn-7 | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 
| Hudi | 0.13.1-amzn-2 | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.1-amzn-0 | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.3 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-2 | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-1 | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-5 | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 
| Trino (PrestoSQL) | 422-amzn-0 | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.14.0 릴리스 정보
<a name="emr-6140-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.14.0에 대한 정보가 포함됩니다. 변경 사항은 6.13.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [6.14.0 변경 로그](#6140-changelog) 섹션을 참조하세요.

**새로운 기능**
+ Amazon EMR 6.14.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-2, Flink 1.17.1, Iceberg 1.3.1, and Trino 422.
+ [Amazon EMR Managed Scaling](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html)은 Amazon EMR 6.14.0 이상에서 생성한 클러스터에 대해 `ap-southeast-3` 아시아 태평양(자카르타) 리전에서 정식 출시되었습니다.

**알려진 문제**
+ 노드에 스레드 및/또는 열린 파일 핸들이 많은 경우 인스턴스의 상태를 모니터링하는 클러스터 내 인스턴스 상태 스크립트는 CPU 및 메모리 리소스를 과도하게 소비할 수 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ 6.14.0 릴리스는 Amazon EC2에서 실행되는 Amazon EMR을 사용하여 로그 관리를 최적화합니다. 따라서 클러스터 로그의 스토리지 비용이 조금 절감될 수 있습니다.
+ 6.14.0 릴리스에서는 Amazon EBS 볼륨에서 크기에 따른 많은 변형을 지원하는 여러 코어 인스턴스를 처리하도록 조정 워크플로를 개선합니다. 이 개선 사항은 코어 노드에만 적용되며, 태스크 노드의 스케일 다운 작업은 영향을 받지 않습니다.
+ 6.14.0 릴리스에서는 Amazon EMR이 오픈 소스 애플리케이션(예: Apache Hadoop YARN ResourceManager and HDFS NameNode)과 상호 작용하는 방식을 개선합니다. 이 개선을 통해 클러스터 조정으로 인한 운영 지연 위험이 줄어들고 오픈 소스 애플리케이션과의 연결 문제로 인해 발생하는 시작 장애가 완화됩니다.
+ 6.14.0 릴리스에서는 클러스터 시작 시 애플리케이션 설치를 최적화합니다. 이를 통해 특정 조합의 Amazon EMR 애플리케이션에 대한 클러스터 시작 시간이 개선됩니다.
+ 6.14.0 릴리스에서는 사용자 지정 도메인이 있는 VPC에서 실행 중인 클러스터에서 코어 또는 태스크 노드가 다시 시작될 때 클러스터 스케일 다운 작업이 중단될 수 있는 문제를 수정합니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-6140-release.html)

## 6.14.0 기본 Java 버전
<a name="emr-6140-jdk"></a>

Amazon EMR 릴리스 6.12.0 이상에서는 기본적으로 Amazon Corretto 8을 사용하는 모든 애플리케이션을 지원합니다(단, Trino는 예외임). Trino와 관련하여 Amazon EMR은 Amazon EMR 릴리스 6.9.0부터 Amazon Corretto 17을 기본적으로 지원합니다. 또한 Amazon EMR은 Amazon Corretto 11 및 17을 사용하는 일부 애플리케이션도 지원합니다. 이 애플리케이션은 다음 테이블에 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.

Amazon EMR은 Apache Spark, Apache Hadoop, Apache Hive에서 Amazon Corretto 11과 17을 모두 지원하지만, 이 버전의 Corretto를 사용하면 일부 워크로드의 성능이 저하될 수 있습니다. 기본값을 변경하기 전에 워크로드를 테스트하는 것이 좋습니다.

다음 표에서는 Amazon EMR 6.14.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 6.14.0 구성 요소 버전
<a name="emr-6140-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.4.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| delta-standalone-connectors | 0.6.0 | Delta 커넥터는 Delta Lake를 Flink, Hive, Presto와 같은 엔진과 통합하기 위한 다양한 런타임을 제공합니다. | 
| emr-ddb | 5.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.7.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.11.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.28.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.7.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.1.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.59.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.17.1-amzn-0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.17.1-amzn-0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-6 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.17-amzn-2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.17-amzn-2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.17-amzn-2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.17-amzn-2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.17-amzn-2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.17-amzn-2 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-7 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-7 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-7 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-7 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-7 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-7 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-7 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.13.1-amzn-2 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.13.1-amzn-2 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.13.1-amzn-2 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.13.1-amzn-2 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.3.1-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.3 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.281-amzn-2 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.281-amzn-2 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.281-amzn-2 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 422-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 422-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 422-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.4.1-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.4.1-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.4.1-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.4.1-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 23.06.0-amzn-2 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-5 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-5 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.14.0 구성 분류
<a name="emr-6140-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.14.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.14.0 변경 로그
<a name="6140-changelog"></a>


**6.14.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-09-03 | 문서 개정 | Amazon EMR 6.14.0 릴리스 정보에 알려진 문제 추가됨 | 
| *2023-11-02* | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.14.0 전체 배포됨 | 
| 2023-10-10 | 문서 게시 | Amazon EMR 6.14.0 릴리스 정보 최초 게시됨 | 
| 2023-10-04 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 6.14.0 최초 배포됨 | 

# Amazon EMR 릴리스 6.13.0
<a name="emr-6130-release"></a>

## 6.13.0 애플리케이션 버전
<a name="emr-6130-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.13.0 | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.513 | 1.12.490 | 1.12.446 | 1.12.446 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.4.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.17.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-1 | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 
| HCatalog | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hadoop | 3.3.3-amzn-5 | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 
| Hive | 3.1.3-amzn-6 | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 
| Hudi | 0.13.1-amzn-1 | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.11.0 | 
| Iceberg | 1.3.0-amzn-1 | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.3 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-1 | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 
| Spark | 3.4.1-amzn-0 | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-4 | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 
| Trino (PrestoSQL) | 414-amzn-1 | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.13.0 릴리스 정보
<a name="emr-6130-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.13.0에 대한 정보가 포함됩니다. 변경 사항은 6.12.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [6.13.0 변경 로그](#6130-changelog) 섹션을 참조하세요.

**새로운 기능**
+ Amazon EMR 6.13.0 supports Apache Spark 3.4.1, Apache Spark RAPIDS 23.06.0-amzn-1, CUDA Toolkit 11.8.0, and JupyterHub 1.5.0.

**알려진 문제**
+ 노드에 스레드 및/또는 열린 파일 핸들이 많은 경우 인스턴스의 상태를 모니터링하는 클러스터 내 인스턴스 상태 스크립트는 CPU 및 메모리 리소스를 과도하게 소비할 수 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ 6.13.0 릴리스에서는 클러스터 종료 명령 실행 시 모든 로그가 Amazon S3에 정기적으로 업로드되도록 Amazon EMR 로그 관리 대몬(daemon)을 개선합니다. 이를 통해 클러스터 종료 속도가 빨라집니다.
+ 6.13.0 릴리스에서는 모든 로그 파일을 Amazon S3에 일관되고 시기적절하게 업로드하도록 Amazon EMR 로그 관리 기능을 개선합니다. 이는 특히 장기 실행 EMR 클러스터에 유용합니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-6130-release.html)

## 6.13.0 기본 Java 버전
<a name="emr-6130-jdk"></a>

Amazon EMR 릴리스 6.12.0 이상에서는 기본적으로 Amazon Corretto 8을 사용하는 모든 애플리케이션을 지원합니다(단, Trino는 예외임). Trino와 관련하여 Amazon EMR은 Amazon EMR 릴리스 6.9.0부터 Amazon Corretto 17을 기본적으로 지원합니다. 또한 Amazon EMR은 Amazon Corretto 11 및 17을 사용하는 일부 애플리케이션도 지원합니다. 이 애플리케이션은 다음 테이블에 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.

Amazon EMR은 Apache Spark, Apache Hadoop, Apache Hive에서 Amazon Corretto 11과 17을 모두 지원하지만, 이 버전의 Corretto를 사용하면 일부 워크로드의 성능이 저하될 수 있습니다. 기본값을 변경하기 전에 워크로드를 테스트하는 것이 좋습니다.

다음 표에서는 Amazon EMR 6.13.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 6.13.0 구성 요소 버전
<a name="emr-6130-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.4.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| delta-standalone-connectors | 0.6.0 | Delta 커넥터는 Delta Lake를 Flink, Hive, Presto와 같은 엔진과 통합하기 위한 다양한 런타임을 제공합니다. | 
| emr-ddb | 5.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.6.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.10.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.27.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.6.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.1.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.58.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.17.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.17.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-5 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.17-amzn-1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.17-amzn-1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.17-amzn-1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.17-amzn-1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.17-amzn-1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.17-amzn-1 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-6 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-6 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-6 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-6 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-6 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-6 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-6 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.13.1-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.13.1-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.13.1-amzn-1 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.13.1-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.3.0-amzn-1 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.3 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.281-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.281-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.281-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 414-amzn-1 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 414-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 414-amzn-1 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.4.1-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.4.1-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.4.1-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.4.1-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 23.06.0-amzn-1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-4 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-4 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.13.0 구성 분류
<a name="emr-6130-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.13.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.13.0 변경 로그
<a name="6130-changelog"></a>


**6.13.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-09-03 | 문서 개정 | Amazon EMR 6.13.0 릴리스 정보에 알려진 문제 추가됨 | 
| *2023-09-23* | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.13.0 전체 배포됨 | 
| 2023-09-12 | 문서 게시 | Amazon EMR 6.13.0 릴리스 정보 최초 게시됨 | 
| 2023-09-01 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 6.13.0 최초 배포됨 | 

# Amazon EMR 릴리스 6.12.0
<a name="emr-6120-release"></a>

## 6.12.0 애플리케이션 버전
<a name="emr-6120-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.12.0 | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.490 | 1.12.446 | 1.12.446 | 1.12.397 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.4.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.17.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.17-amzn-0 | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hadoop | 3.3.3-amzn-4 | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 
| Hive | 3.1.3-amzn-5 | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 
| Hudi | 0.13.1-amzn-0 | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.11.0 | 4.10.0 | 
| Iceberg | 1.3.0-amzn-0 | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.3 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.281-amzn-0 | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.4.0-amzn-0 | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-3 | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 
| Trino (PrestoSQL) | 414-amzn-0 | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.12.0 릴리스 정보
<a name="emr-6120-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.12.0에 대한 정보가 포함됩니다. 변경 사항은 6.11.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [6.12.0 변경 로그](#6120-changelog) 섹션을 참조하세요.

**새로운 기능**
+ Amazon EMR 6.12.0 supports Apache Spark 3.4.0, Apache Spark RAPIDS 23.06.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.1-amzn-0, Apache Iceberg 1.3.0-amzn-0, Trino 414, and PrestoDB 0.281.
+ Amazon EMR 릴리스 6.12.0 이상에서는 Apache Livy, HiveServer2(HS2)를 통한 Apache Hive, Trino, Presto, Hue와의 LDAP 통합을 지원합니다. 6.12.0 이상을 사용하는 EMR 클러스터에 Apache Spark 및 Apache Hadoop을 설치하고 LDAP를 사용하도록 구성할 수도 있습니다. 자세한 내용은 [Amazon EMR에서 인증을 위해 Active Directory 또는 LDAP 서버 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/ldap.html)을 참조하세요.

**알려진 문제**
+ 노드에 스레드 및/또는 열린 파일 핸들이 많은 경우 인스턴스의 상태를 모니터링하는 클러스터 내 인스턴스 상태 스크립트는 CPU 및 메모리 리소스를 과도하게 소비할 수 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ Amazon EMR 릴리스 6.12.0 이상에서는 Flink에 대한 Java 11 런타임 지원을 제공합니다. 자세한 내용은 [Java 11과 함께 실행하도록 Flink 구성](flink-configure.md#flink-configure-java11) 단원을 참조하십시오.
+ 6.12.0 릴리스에서는 Presto 또는 Trino를 실행하는 EMR 클러스터의 클러스터 조정 워크플로에 새로운 재시도 메커니즘을 추가합니다. 이 개선 사항을 통해 크기 조정 작업의 한 번 실패로 인해 클러스터 크기 조정이 무기한 중단될 위험이 줄어듭니다. 또한 클러스터를 더 빠르게 스케일 업 및 스케일 다운하므로 클러스터 활용도가 향상됩니다.
+ 6.12.0 릴리스는 정상적으로 사용 중지되는 코어 노드가 완전히 해제되기 전에 어떤 이유로든 비정상 상태가 되면 클러스터 스케일 다운 작업이 중단될 수 있는 문제를 수정합니다.
+ 6.12.0 릴리스에서는 클러스터가 클러스터의 HDFS 복제 계수 설정 미만으로 코어 노드의 스케일 다운을 시도하지 않도록 클러스터 스케일 다운 로직을 개선합니다. 이는 데이터 중복성 요구 사항에 부합하며 조정 작업이 중단될 가능성을 줄여줍니다.
+ 6.12.0 릴리스에서는 인스턴스의 상태 변경을 로깅하는 속도를 높여 Amazon EMR에 대한 상태 모니터링 서비스의 성능과 효율성을 개선합니다. 이 개선 사항을 통해 여러 사용자 지정 클라이언트 도구 또는 타사 애플리케이션을 실행하는 클러스터 노드에서 성능이 저하될 가능성이 줄어듭니다.
+ 6.12.0 릴리스에서는 Amazon EMR에 대한 클러스터 내 로그 관리 대몬(daemon)의 성능을 개선합니다. 따라서 동시성이 높은 단계를 실행하는 EMR 클러스터를 사용하면 성능이 저하될 가능성이 줄어듭니다.
+ Amazon EMR 릴리스 6.12.0에서는 로컬 인스턴스 스토리지의 열린 파일 핸들 및 관련 프로세스에서 현재 사용 중인 모든 로그를 식별하도록 로그 관리 대몬(daemon)이 업그레이드되었습니다. 이 업그레이드를 통해 Amazon EMR은 로그를 Amazon S3에 아카이브한 후 파일을 올바르게 삭제하고 스토리지 공간을 확보할 수 있습니다.
+ 6.12.0 릴리스에는 로컬 클러스터 파일 시스템에서 사용되지 않는 빈 단계 디렉터리를 삭제하는 로그 관리 대몬(daemon) 개선 사항이 포함되어 있습니다. 빈 디렉터리가 너무 많으면 Amazon EMR 대몬(daemon)의 성능이 저하되고 디스크가 과도하게 사용될 수 있습니다.
+ 6.12.0 릴리스에서는 YARN 타임라인 서버 로그의 로그 로테이션을 지원합니다. 이를 통해 특히 장기 실행 클러스터의 경우 디스크 과다 사용 시나리오를 최소화할 수 있습니다.
+ Amazon EMR 6.10.0 이상에서는 기본 루트 볼륨 크기가 15GB로 늘어났습니다. 이전 릴리스에서 기본 루트 볼륨 크기는 10GB였습니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-6120-release.html)

## 6.12.0 기본 Java 버전
<a name="emr-6120-jdk"></a>

Amazon EMR 릴리스 6.12.0 이상에서는 기본적으로 Amazon Corretto 8을 사용하는 모든 애플리케이션을 지원합니다(단, Trino는 예외임). Trino와 관련하여 Amazon EMR은 Amazon EMR 릴리스 6.9.0부터 Amazon Corretto 17을 기본적으로 지원합니다. 또한 Amazon EMR은 Amazon Corretto 11 및 17을 사용하는 일부 애플리케이션도 지원합니다. 이 애플리케이션은 다음 테이블에 나와 있습니다. 클러스터의 기본 JVM을 변경하려면 클러스터에서 실행되는 각 애플리케이션에 대해 [특정 Java 가상 머신을 사용하도록 애플리케이션 구성](configuring-java8.md)의 지침을 따릅니다. 클러스터에서는 Java 런타임 버전 1개만 사용할 수 있습니다. Amazon EMR은 동일한 클러스터에서 다양한 런타임 버전을 사용해 서로 다른 노드 또는 애플리케이션을 실행하는 것을 지원하지 않습니다.

Amazon EMR은 Apache Spark, Apache Hadoop, Apache Hive에서 Amazon Corretto 11과 17을 모두 지원하지만, 이 버전의 Corretto를 사용하면 일부 워크로드의 성능이 저하될 수 있습니다. 기본값을 변경하기 전에 워크로드를 테스트하는 것이 좋습니다.

다음 표에서는 Amazon EMR 6.12.0에 있는 애플리케이션의 기본 Java 버전을 확인할 수 있습니다.


| 애플리케이션 | Java 및 Amazon Corretto 버전(기본값은 굵은체로 표시) | 
| --- | --- | 
| 델타 | 17, 11, 8 | 
| Flink | 11, 8 | 
| Ganglia | 8 | 
| HBase | 11, 8 | 
| HCatalog | 17, 11, 8 | 
| Hadoop | 17, 11, 8 | 
| Hive | 17, 11, 8 | 
| Hudi | 17, 11, 8 | 
| Iceberg | 17, 11, 8 | 
| Livy | 17, 11, 8 | 
| Oozie | 17, 11, 8 | 
| 피닉스 | 8 | 
| PrestoDB | 8 | 
| Spark | 17, 11, 8 | 
| Spark RAPIDS | 17, 11, 8 | 
| Sqoop | 8 | 
| Tez의 Hive 실행 시간 비교 | 17, 11, 8 | 
| Trino | 17 | 
| Zeppelin | 8 | 
| Pig | 8 | 
| Zookeeper | 8 | 

## 6.12.0 구성 요소 버전
<a name="emr-6120-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.4.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| delta-standalone-connectors | 0.6.0 | Delta 커넥터는 Delta Lake를 Flink, Hive, Presto와 같은 엔진과 통합하기 위한 다양한 런타임을 제공합니다. | 
| emr-ddb | 5.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.5.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.9.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.26.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.5.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.1.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.57.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.17.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.17.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.17-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.17-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.17-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.17-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.17-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.17-amzn-0 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-5 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-5 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-5 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-5 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-5 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-5 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-5 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.13.1-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.13.1-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.13.1-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.13.1-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.3.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.7.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.3 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.281-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.281-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.281-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 414-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 414-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 414-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.4.0-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.4.0-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.4.0-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.4.0-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 23.06.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-3 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-3 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.12.0 구성 분류
<a name="emr-6120-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.12.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-java-home | Hadoop의 KMS java 홈 변경 | Not available. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.12.0 변경 로그
<a name="6120-changelog"></a>


**6.12.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2025-09-03 | 문서 개정 | Amazon EMR 6.12.0 릴리스 정보에 알려진 문제 추가됨 | 
| 2023-07-27 | 설명서 업데이트 | 6.12용 Java 옵션을 업데이트하고 Oozie 튜토리얼을 추가하여 JVM 업데이트하세요. | 
| 2023-07-21 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.12.0 전체 배포됨 | 
| 2023-07-21 | 문서 게시 | Amazon EMR 6.12.0 릴리스 정보 최초 게시됨 | 
| 2023-07-12 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 6.12.0 최초 배포됨 | 

# Amazon EMR 릴리스 6.11.1
<a name="emr-6111-release"></a>

## 6.11.1 애플리케이션 버전
<a name="emr-6111-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.11.1 | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.446 | 1.12.446 | 1.12.397 | 1.12.397 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.16.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1.1 | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 
| HCatalog | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hadoop | 3.3.3-amzn-3.1 | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 
| Hive | 3.1.3-amzn-4.1 | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 
| Hudi | 0.13.0-amzn-0 | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 
| Hue | 4.11.0 | 4.11.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.5.0 | 1.5.0 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 
| Spark | 3.3.2-amzn-0.1 | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.11.0 | 
| Tez | 0.10.2-amzn-2.1 | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.11.1 릴리스 정보
<a name="emr-6111-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.11.1에 대한 정보가 포함됩니다. 변경 사항은 6.11.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [6.11.1 변경 로그](#6111-changelog) 섹션을 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ 잠금 경합으로 인해 노드가 서비스 해제를 시도하면서 동시에 노드가 추가되거나 제거되면 노드가 교착 상태에 빠질 수 있습니다. 따라서 Hadoop Resource Manager(YARN)가 응답하지 않게 되고 수신 및 현재 실행 중인 모든 컨테이너에 영향을 미칩니다.
+ 이 릴리스에는 다시 시작한 후 고가용성 클러스터를 장애 상태에서 복구할 수 있도록 지원하는 변경 사항이 포함되어 있습니다.
+ 이 릴리스에는 Hue 및 HBase에 대한 보안 수정 사항이 포함되어 있습니다.
+ 이 릴리스에서는 Amazon EMR을 사용하여 Spark에서 워크로드를 실행하는 클러스터가 `contains`, `startsWith`, `endsWith`, `like`에서 잘못된 결과를 자동으로 수신할 수 있는 문제를 수정했습니다. 이 문제는 Amazon EMR Hive3 Metastore Server(HMS)에 메타데이터가 있는 파티셔닝된 필드에서 표현식을 사용할 때 발생합니다.
+ 이 릴리스에서는 사용자 정의 함수(UDF)가 없을 때 발생하는 Glue 측 제한 관련 문제를 수정했습니다.
+ 이 릴리스에서는 YARN 서비스 해제 시 로그 푸셔가 컨테이너 로그를 S3로 푸시하기 전에 노드 로그 집계 서비스에서 컨테이너 로그를 삭제하는 문제를 수정했습니다.
+ 이 릴리스에서는 Hadoop에 노드 레이블이 활성화된 경우 FairShare 스케줄러 지표와 관련된 문제를 수정했습니다.
+ 이 릴리스에서는 `spark-defaults.conf`에서 `spark.yarn.heterogeneousExecutors.enabled` 구성의 기본 `true` 값을 설정할 때 Spark 성능에 영향을 주던 문제를 수정했습니다.
+ 이 릴리스에서는 Reduce 작업이 셔플 데이터를 읽지 못하는 문제를 수정했습니다. 이 문제로 인해 Hive 쿼리가 실패하고 메모리 손상 오류가 발생했습니다.
+ 이 릴리스에서는 Presto 또는 Trino를 실행하는 EMR 클러스터의 클러스터 조정 워크플로에 새로운 재시도 메커니즘을 추가합니다. 이 개선 사항을 통해 크기 조정 작업의 한 번 실패로 인해 클러스터 크기 조정이 무기한 중단될 위험이 줄어듭니다. 또한 클러스터를 더 빠르게 스케일 업 및 스케일 다운하므로 클러스터 활용도가 향상됩니다.
+ 이 릴리스에서는 클러스터가 클러스터의 HDFS 복제 계수 설정 미만으로 코어 노드의 스케일 다운을 시도하지 않도록 클러스터 스케일 다운 로직을 개선합니다. 이는 데이터 중복성 요구 사항에 부합하며 조정 작업이 중단될 가능성을 줄여줍니다.
+ 로컬 인스턴스 스토리지의 열린 파일 핸들 및 관련 프로세스에서 현재 사용 중인 모든 로그를 식별하도록 로그 관리 대몬(daemon)이 업그레이드되었습니다. 이 업그레이드를 통해 Amazon EMR은 로그를 Amazon S3에 아카이브한 후 파일을 올바르게 삭제하고 스토리지 공간을 확보할 수 있습니다.
+ 이 릴리스에는 로컬 클러스터 파일 시스템에서 사용되지 않는 빈 단계 디렉터리를 삭제하는 로그 관리 대몬(daemon) 개선 사항이 포함되어 있습니다. 빈 디렉터리가 너무 많으면 Amazon EMR 대몬(daemon)의 성능이 저하되고 디스크가 과도하게 사용될 수 있습니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-6111-release.html)

## 6.11.1 구성 요소 버전
<a name="emr-6111-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.2.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| delta-standalone-connectors | 0.6.0 | Delta 커넥터는 Delta Lake를 Flink, Hive, Presto와 같은 엔진과 통합하기 위한 다양한 런타임을 제공합니다. | 
| emr-ddb | 5.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.8.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.25.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.4.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.1.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.56.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.16.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.16.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-3.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-3.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-3.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-3.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-3.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.15-amzn-1.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.15-amzn-1.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.15-amzn-1.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.15-amzn-1.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.15-amzn-1.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.15-amzn-1.1 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-4.1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-4.1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-4.1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-4.1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-4.1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-4.1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-4.1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.13.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.13.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.13.0-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.13.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.2 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.279-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.279-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.279-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 410-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 410-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 410-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.3.2-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.3.2-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.3.2-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.3.2-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 23.02.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-2.1 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-2.1 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.11.1 구성 분류
<a name="emr-6111-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.11.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.11.1 변경 로그
<a name="6111-changelog"></a>


**6.11.1 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-08-30 | 릴리스 정보 업데이트 | 릴리스 정보에 컨트롤 플레인 관련 수정 사항이 여러 개 추가되었습니다. | 
| 2023-08-21 | 문서 게시 | Amazon EMR 6.11.1 릴리스 정보 최초 게시됨 | 
| 2023-08-16 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.11.1 전체 배포됨 | 
| 2023-08-04 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 6.11.1 최초 배포됨 | 

# Amazon EMR 릴리스 6.11.0
<a name="emr-6110-release"></a>

## 6.11.0 애플리케이션 버전
<a name="emr-6110-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.11.0 | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.446 | 1.12.397 | 1.12.397 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.16.0 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-1 | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hadoop | 3.3.3-amzn-3 | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 
| Hive | 3.1.3-amzn-4 | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 
| Hudi | 0.13.0-amzn-0 | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.11.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.2.0-amzn-0 | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.4.1 | 1.5.0 | 1.5.0 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.279-amzn-0 | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.2-amzn-0 | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.11.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-2 | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 
| Trino (PrestoSQL) | 410-amzn-0 | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.11.0 릴리스 정보
<a name="emr-6110-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.11.0에 대한 정보가 포함됩니다. 변경 사항은 6.10.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [변경 로그](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6110-release.html#6110-changelog)를 참조하세요.

**새로운 기능**
+ Amazon EMR 6.11.0에서는 Apache Spark 3.3.2-amzn-0, Apache Spark RAPIDS 23.02.0-amzn-0, CUDA 11.8.0, Apache Hudi 0.13.0-amzn-0, Apache Iceberg 1.2.0-amzn-0, Trino 410-amzn-0, PrestoDB 0.279-amzn-0을 지원합니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.
+ Amazon EMR 6.11.0에서 DynamoDB 커넥터가 버전 5.0.0으로 업그레이드되었습니다. 버전 5.0.0은를 사용합니다 AWS SDK for Java 2.x. 이전 릴리스는 AWS SDK for Java 1.x를 사용했습니다. 이번 업그레이드로, Amazon EMR 6.11에서 DynamoDB 커넥터를 사용하기 전에 코드를 테스트해 보는 것이 좋습니다.
+ Amazon EMR 6.11.0용 DynamoDB 커넥터가 DynamoDB 서비스를 직접 호출할 때는 사용자가 `dynamodb.endpoint` 속성에 제공한 리전 값을 사용합니다. `dynamodb.endpoint` 사용 시 `dynamodb.region`도 구성하고, 두 속성이 모두 동일한 AWS 리전을 대상으로 지정하는 것이 좋습니다. `dynamodb.endpoint`를 사용하고 `dynamodb.region`를 구성하지 않으면 Amazon EMR 6.11.0용 DynamoDB 커넥터는 잘못된 리전 예외를 반환하고 Amazon EC2 인스턴스 메타데이터 서비스(IMDS)에서 AWS 리전 정보를 조정하려고 시도합니다. 커넥터가 IMDS에서 리전을 검색할 수 없는 경우 기본값은 미국 동부(버지니아 북부)(`us-east-1`)입니다. 다음 오류는 `dynamodb.region` 속성을 올바르게 구성하지 않을 경우 발생할 수 있는 잘못된 리전 예외의 예입니다. 2.x로의 AWS SDK for Java 업그레이드의 영향을 받는 클래스에 대한 `error software.amazon.awssdk.services.dynamodb.model.DynamoDbException: Credential should be scoped to a valid region.` 자세한 내용은 Amazon EMR - DynamoDB 커넥터의 GitHub 리포지토리에서 [1.x AWS SDK for Java 에서 2.x(\$1175)로 업그레이드 ](https://github.com/awslabs/emr-dynamodb-connector/commit/1dec9d1972d3673c3fae6c6ea51f19f295147ccf) 커밋을 참조하세요.
+ 이 릴리스에서는 열 이름 바꾸기 작업 후 Delta Lake를 사용하여 Amazon S3에 델타 테이블 데이터를 저장할 때 열 데이터가 `NULL`로 표시되는 문제를 수정했습니다. Delta Lake의 이 실험 기능에 대한 자세한 내용은 Delta Lake 사용 설명서에서 [Column rename operation](https://docs.delta.io/latest/delta-batch.html#rename-columns)을 참조하세요.
+ 6.11.0 릴리스에서는 여러 프라이머리 노드를 포함하는 클러스터에서 프라이머리 노드 중 하나를 복제하여 엣지 노드를 생성할 때 발생할 수 있는 문제를 수정했습니다. 복제된 엣지 노드로 인해 스케일 다운 작업이 지연되거나 프라이머리 노드의 메모리 사용률이 높아질 수 있습니다. EMR 클러스터와 통신하기 위해 엣지 노드를 생성하는 방법에 대한 자세한 내용은 GitHub의 `aws-samples` 리포지토리에서 [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator)를 참조하세요.
+ 6.11.0 릴리스에서는 Amazon EMR이 재부팅 후 Amazon EBS 볼륨을 인스턴스에 다시 마운트하는 데 사용하는 자동화 프로세스를 개선합니다.
+ 6.11.0 릴리스에서는 Amazon EMR이 Amazon CloudWatch에 게시하는 Hadoop 지표에 간헐적으로 간격이 발생하는 문제를 수정했습니다.
+ 6.11.0 릴리스에서는 클러스터의 노드 제외 목록이 포함된 YARN 구성 파일에 대한 업데이트가 디스크 과다 사용으로 인해 중단되는 EMR 클러스터 관련 문제를 수정했습니다. 업데이트가 불완전하면 향후 클러스터 스케일 다운 작업에 방해가 됩니다. 이 릴리스에서는 클러스터를 정상 상태로 유지하고 조정 작업을 예상대로 수행하도록 보장합니다.
+ Amazon EMR 6.10.0 이상에서는 기본 루트 볼륨 크기가 15GB로 늘어났습니다. 이전 릴리스에서 기본 루트 볼륨 크기는 10GB였습니다.
+ Hadoop 3.3.3에서는 애플리케이션이 완료될 때까지 컨테이너가 실행되는 노드를 서비스 해제 상태로 유지하는 YARN의 변경 사항([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608))을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. 이 접근 방식을 사용하면 Managed Scaling의 활성화 여부에 상관없이 클러스터에서 리소스 사용률이 낮아질 수도 있습니다.

  Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1, 6.10.1에서는 이 문제를 해결하기 위해 `yarn-site.xml`에서 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` 값이 `false`로 설정됩니다.

  이 수정 사항은 YARN-9608 때문에 발생한 문제를 해결하지만, Managed Scaling이 활성화된 클러스터에서는 셔플 데이터 손실로 인해 Hive 작업이 실패할 수 있습니다. 이번 릴리스에서는 Hive 워크로드에 대해 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data`도 설정하여 이러한 위험을 완화했습니다. 이 구성은 Amazon EMR 릴리스 6.11.0 이상에서만 사용할 수 있습니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.
**참고**  
이 릴리스에서는 패치 릴리스가 1개 더 추가되었으므로 더 이상 자동 AMI 업데이트를 받지 않습니다. 패치 릴리스는 소수점 두 번째 자리 뒤의 숫자(`6.8.1`)로 표시됩니다. 최신 패치 릴리스를 사용하는지 확인하려면 [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide)에서 사용 가능한 릴리스를 확인하거나, 콘솔에서 클러스터를 생성할 때 **Amazon EMR 릴리스** 드롭다운을 확인하거나, [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) API 또는 [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) CLI 작업을 사용합니다. 새 릴리스에 대한 업데이트를 받으려면 [새로운 기능](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)에서 RSS 피드를 구독하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-6110-release.html)

## 6.11.0 구성 요소 버전
<a name="emr-6110-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.2.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| delta-standalone-connectors | 0.6.0 | Delta 커넥터는 Delta Lake를 Flink, Hive, Presto와 같은 엔진과 통합하기 위한 다양한 런타임을 제공합니다. | 
| emr-ddb | 5.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.8.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.25.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.4.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.1.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.56.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.16.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.16.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-3 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.15-amzn-1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.15-amzn-1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.15-amzn-1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.15-amzn-1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.15-amzn-1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.15-amzn-1 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-4 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-4 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-4 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-4 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-4 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.13.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.13.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.13.0-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.13.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.2.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.2 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.279-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.279-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.279-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 410-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 410-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 410-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.3.2-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.3.2-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.3.2-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.3.2-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 23.02.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-2 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-2 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.11.0 구성 분류
<a name="emr-6110-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.11.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.11.0 변경 로그
<a name="6110-changelog"></a>


**6.11.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-08-21 | 업데이트 | Hadoop 3.3.3에서 발생하는 문제가 해결되었습니다. | 
| 2023-07-26 | 업데이트 | 새 OS 릴리스 레이블 2.0.20230612.0 및 2.0.20230628.0. | 
| 2023-06-09 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.11.0 전체 배포됨 | 
| 2023-06-09 | 문서 게시 | Amazon EMR 6.11.0 릴리스 정보 최초 게시됨 | 
| 2023-06-08 | 초기 릴리스 | 최초 상용 리전에 Amazon EMR 6.11.0 최초 배포됨 | 

# Amazon EMR 릴리스 6.10.1
<a name="emr-6101-release"></a>

## 6.10.1 애플리케이션 버전
<a name="emr-6101-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.10.1 | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.397 | 1.12.397 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.2.0 | 2.1.0 | 2.1.0 | 
| Flink | 1.16.0 | 1.16.0 | 1.15.2 | 1.15.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0.1 | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 
| HCatalog | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hadoop | 3.3.3-amzn-2.1 | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 
| Hive | 3.1.3-amzn-3.1 | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 
| Hudi | 0.12.2-amzn-0 | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.6.0 | 
| JupyterHub | 1.5.0 | 1.5.0 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 
| Spark | 3.3.1-amzn-0.1 | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.11.0 | 2.10.0 | 2.10.0 | 
| Tez | 0.10.2-amzn-1.1 | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 
| Trino (PrestoSQL) | 403-amzn-0 | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.10.1 릴리스 정보
<a name="emr-6101-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.10.1에 대한 정보가 포함됩니다. 변경 사항은 6.10.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [6.10.1 변경 로그](#6101-changelog) 섹션을 참조하세요.

**알려진 문제**
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 잠금 경합으로 인해 노드가 서비스 해제를 시도하면서 동시에 노드가 추가되거나 제거되면 노드가 교착 상태에 빠질 수 있습니다. 따라서 Hadoop Resource Manager(YARN)가 응답하지 않게 되고 수신 및 현재 실행 중인 모든 컨테이너에 영향을 미칩니다.
+ Hadoop 3.3.3에서는 애플리케이션이 완료될 때까지 컨테이너가 실행되는 노드를 서비스 해제 상태로 유지하는 YARN의 변경 사항([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608))을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. 이 접근 방식을 사용하면 Managed Scaling의 활성화 여부에 상관없이 클러스터에서 리소스 사용률이 낮아질 수도 있습니다.

  Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1, 6.10.1에서는 이 문제를 해결하기 위해 `yarn-site.xml`에서 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` 값이 `false`로 설정됩니다.

  이 수정 사항은 YARN-9608 때문에 발생한 문제를 해결하지만, Managed Scaling이 활성화된 클러스터에서는 셔플 데이터 손실로 인해 Hive 작업이 실패할 수 있습니다. 이번 릴리스에서는 Hive 워크로드에 대해 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data`도 설정하여 이러한 위험을 완화했습니다. 이 구성은 Amazon EMR 릴리스 6.11.0 이상에서만 사용할 수 있습니다.
+ 지표 수집기는 인스턴스 그룹 구성을 사용하는 클러스터의 프라이머리 노드를 장애 조치한 후 컨트롤 플레인에 지표를 전송하지 않습니다.
+ 이 릴리스에는 다시 시작한 후 고가용성 클러스터를 장애 상태에서 복구할 수 있도록 지원하는 변경 사항이 포함되어 있습니다.
+ 이 릴리스에는 Hue 및 HBase에 대한 보안 수정 사항이 포함되어 있습니다.
+ 이 릴리스에서는 Amazon EMR을 사용하여 Spark에서 워크로드를 실행하는 클러스터가 `contains`, `startsWith`, `endsWith`, `like`에서 잘못된 결과를 자동으로 수신할 수 있는 문제를 수정했습니다. 이 문제는 Amazon EMR Hive3 Metastore Server(HMS)에 메타데이터가 있는 파티셔닝된 필드에서 표현식을 사용할 때 발생합니다.
+ 이 릴리스에서는 사용자 정의 함수(UDF)가 없을 때 발생하는 Glue 측 제한 관련 문제를 수정했습니다.
+ 이 릴리스에서는 YARN 서비스 해제 시 로그 푸셔가 컨테이너 로그를 S3로 푸시하기 전에 노드 로그 집계 서비스에서 컨테이너 로그를 삭제하는 문제를 수정했습니다.
+ 이 릴리스에서는 Hadoop에 노드 레이블이 활성화된 경우 FairShare 스케줄러 지표와 관련된 문제를 수정했습니다.
+ 이 릴리스에서는 `spark-defaults.conf`에서 `spark.yarn.heterogeneousExecutors.enabled` 구성의 기본 `true` 값을 설정할 때 Spark 성능에 영향을 주던 문제를 수정했습니다.
+ 이 릴리스에서는 Reduce 작업이 셔플 데이터를 읽지 못하는 문제를 수정했습니다. 이 문제로 인해 Hive 쿼리가 실패하고 메모리 손상 오류가 발생했습니다.
+ 이 릴리스에서는 Presto 또는 Trino를 실행하는 EMR 클러스터의 클러스터 조정 워크플로에 새로운 재시도 메커니즘을 추가합니다. 이 개선 사항을 통해 크기 조정 작업의 한 번 실패로 인해 클러스터 크기 조정이 무기한 중단될 위험이 줄어듭니다. 또한 클러스터를 더 빠르게 스케일 업 및 스케일 다운하므로 클러스터 활용도가 향상됩니다.
+ 이 릴리스에서는 클러스터가 클러스터의 HDFS 복제 계수 설정 미만으로 코어 노드의 스케일 다운을 시도하지 않도록 클러스터 스케일 다운 로직을 개선합니다. 이는 데이터 중복성 요구 사항에 부합하며 조정 작업이 중단될 가능성을 줄여줍니다.
+ 로컬 인스턴스 스토리지의 열린 파일 핸들 및 관련 프로세스에서 현재 사용 중인 모든 로그를 식별하도록 로그 관리 대몬(daemon)이 업그레이드되었습니다. 이 업그레이드를 통해 Amazon EMR은 로그를 Amazon S3에 아카이브한 후 파일을 올바르게 삭제하고 스토리지 공간을 확보할 수 있습니다.
+ 이 릴리스에는 로컬 클러스터 파일 시스템에서 사용되지 않는 빈 단계 디렉터리를 삭제하는 로그 관리 대몬(daemon) 개선 사항이 포함되어 있습니다. 빈 디렉터리가 너무 많으면 Amazon EMR 대몬(daemon)의 성능이 저하되고 디스크가 과도하게 사용될 수 있습니다.
+ 이 릴리스에서는 여러 프라이머리 노드를 포함하는 클러스터에서 프라이머리 노드 중 하나를 복제하여 엣지 노드를 생성할 때 발생할 수 있는 문제를 수정했습니다. 복제된 엣지 노드로 인해 스케일 다운 작업이 지연되거나 프라이머리 노드의 메모리 사용률이 높아질 수 있습니다. EMR 클러스터와 통신하기 위해 엣지 노드를 생성하는 방법에 대한 자세한 내용은 GitHub의 `aws-samples` 리포지토리에서 [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator)를 참조하세요.
+ 이 릴리스에서는 Amazon EMR이 재부팅 후 Amazon EBS 볼륨을 인스턴스에 다시 마운트하는 데 사용하는 자동화 프로세스를 개선합니다.
+ 이 릴리스에서는 Amazon EMR이 Amazon CloudWatch에 게시하는 Hadoop 지표에 간헐적으로 간격이 발생하는 문제를 수정했습니다.
+ 이 릴리스에서는 클러스터의 노드 제외 목록이 포함된 YARN 구성 파일에 대한 업데이트가 디스크 과다 사용으로 인해 중단되는 EMR 클러스터 관련 문제를 수정했습니다. 업데이트가 불완전하면 향후 클러스터 스케일 다운 작업에 방해가 됩니다. 이 릴리스에서는 클러스터를 정상 상태로 유지하고 조정 작업을 예상대로 수행하도록 보장합니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-6101-release.html)

## 6.10.1 구성 요소 버전
<a name="emr-6101-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.2.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.7.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.24.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.3.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.0.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.55.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.16.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.16.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-2.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-2.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-2.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-2.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-2.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.15-amzn-0.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.15-amzn-0.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.15-amzn-0.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.15-amzn-0.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.15-amzn-0.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.15-amzn-0.1 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-3.1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-3.1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-3.1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-3.1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-3.1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-3.1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-3.1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.12.2-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.12.2-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.12.2-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.12.2-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.278.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.278.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.278.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 403-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 403-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 403-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.3.1-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.3.1-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.3.1-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.3.1-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 22.12.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-1.1 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-1.1 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.10.1 구성 분류
<a name="emr-6101-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.10.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.10.1 변경 로그
<a name="6101-changelog"></a>


**6.10.1 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-08-30 | 릴리스 정보 업데이트 | 릴리스 정보에 컨트롤 플레인 관련 수정 사항이 여러 개 추가되었습니다. | 
| 2023-08-21 | 문서 게시 | Amazon EMR 6.10.1 릴리스 정보 최초 게시됨 | 
| 2023-08-16 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.10.1 전체 배포됨 | 
| 2023-08-04 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 6.10.1 최초 배포됨 | 

# Amazon EMR 릴리스 6.10.0
<a name="emr-6100-release"></a>

## 6.10.0 애플리케이션 버전
<a name="emr-6100-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.10.0 | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.397 | 1.12.170 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.2.0 | 2.1.0 | 2.1.0 |  -  | 
| Flink | 1.16.0 | 1.15.2 | 1.15.2 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.15-amzn-0 | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 
| HCatalog | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hadoop | 3.3.3-amzn-2 | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 
| Hive | 3.1.3-amzn-3 | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 
| Hudi | 0.12.2-amzn-0 | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 1.1.0-amzn-0 | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.6.0 | 2.1.0 | 
| JupyterHub | 1.5.0 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.278.1-amzn-0 | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.1-amzn-0 | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.11.0 | 2.10.0 | 2.10.0 | 2.9.1 | 
| Tez | 0.10.2-amzn-1 | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 
| Trino (PrestoSQL) | 403-amzn-0 | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.10.0 릴리스 정보
<a name="emr-6100-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.10.0에 대한 정보가 포함됩니다. 변경 사항은 6.9.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [변경 로그](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-6100-release.html#6100-changelog)를 참조하세요.

**새로운 기능**
+ Amazon EMR 6.10.0에서는 Apache Spark 3.3.1, Apache Spark RAPIDS 22.12.0, CUDA 11.8.0, Apache Hudi 0.12.2-amzn-0, Apache Iceberg 1.1.0-amzn-0, Trino 403, PrestoDB 0.278.1을 지원합니다.
+ Amazon EMR 6.10.0에는 Hudi 테이블의 데이터에 대한 읽기 액세스를 제공하는 네이티브 Trino-Hudi 커넥터가 포함되어 있습니다. `trino-cli --catalog hudi`를 사용하여 커넥터를 활성화하고, `trino-connector-hudi`를 사용하여 요구 사항에 맞게 커넥터를 구성할 수 있습니다. Amazon EMR과의 기본 통합을 통해 더 이상 Hudi 테이블을 쿼리하는 데 `trino-connector-hive`를 사용하지 않아도 됩니다. 새 커넥터에서 지원되는 구성 목록은 Trino 설명서에서 [Hudi connector](https://trino.io/docs/current/connector/hudi.html) 페이지를 참조하세요.
+ Amazon EMR 릴리스 6.10.0 이상에서는 Apache Flink와의 Apache Zeppelin 통합을 지원합니다. 자세한 정보는 [Amazon EMR의 Zeppelin에서 Flink 작업](flink-zeppelin.md)을 참조하세요.

**알려진 문제**
+ Hadoop 3.3.3에서는 애플리케이션이 완료될 때까지 컨테이너가 실행되는 노드를 서비스 해제 상태로 유지하는 YARN의 변경 사항([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608))을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. 이 접근 방식을 사용하면 Managed Scaling의 활성화 여부에 상관없이 클러스터에서 리소스 사용률이 낮아질 수도 있습니다.

  Amazon EMR 6.10.0에서 이 문제를 해결하려면 `yarn-site.xml`에서 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications`의 값을 `false`로 설정하면 됩니다. Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1, 6.10.1에서는 이 문제를 해결하기 위해 기본적으로 구성이 `false`로 설정되어 있습니다.
+  Spark 3.3.1(EMR 버전 6.10 이상에서 지원됨)부터 폐기 호스트의 모든 실행기는 *DECOMMISSIONING* 상태라는 새로운 `ExecutorState` 상태로 설정됩니다. Yarn은 폐기 중인 실행기를 사용하여 작업을 할당할 수 없으므로 필요한 경우 실행 중인 작업에 대해 새 실행기를 요청하세요. 따라서 EMR Managed Scaling, EMR Auto Scaling 또는 EMR-EC2 클러스터의 사용자 지정 조정 메커니즘을 사용하는 동안 Spark DRA를 비활성화하면 Yarn이 각 작업에 허용되는 최대 실행기를 요청할 수 있습니다. 이 문제를 방지하려면 위의 기능 조합을 사용할 때 `spark.dynamicAllocation.enabled` 속성을 `TRUE`(기본값)로 설정한 상태로 둡니다. 또한 Spark 작업의 `spark.dynamicAllocation.maxExecutors` 및 `spark.dynamicAllocation.minExecutors` 속성 값을 설정하여 작업 실행 중에 할당된 실행기 수를 제한하여 최소 및 최대 실행기 제약 조건을 설정할 수도 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 6.10.0은 `minimal-json.jar`에서 [Apache Spark용 Amazon Redshift 통합](emr-spark-redshift-launch.md)의 종속 항목을 제거하고 필요한 Spark-Redshift 관련 jar(`spark-redshift.jar`, `spark-avro.jar`, `RedshiftJDBC.jar`)을 Spark의 실행기 클래스 경로에 자동으로 추가합니다.
+ 6.10.0 릴리스에서는 EMR 클러스터의 추가 로그 폴더를 모니터링하도록 클러스터 내 로그 관리 대몬(daemon)이 개선되었습니다. 이 개선 사항은 디스크 과다 사용 시나리오를 최소화합니다.
+ 6.10.0 릴리스에서는 클러스터 내 로그 관리 대몬(daemon)이 중지되면 해당 대몬(daemon)을 자동으로 다시 시작합니다. 이 개선 사항은 디스크 과다 사용으로 인해 노드가 비정상으로 보이는 위험을 줄입니다.
+ Amazon EMR 6.10.0은 EMRFS 사용자 매핑에 대한 리전 엔드포인트를 지원합니다.
+ Amazon EMR 6.10.0 이상에서는 기본 루트 볼륨 크기가 15GB로 늘어났습니다. 이전 릴리스에서 기본 루트 볼륨 크기는 10GB였습니다.
+ 6.10.0 릴리스에서는 다른 모든 Spark 실행기가 YARN 리소스 관리자의 서비스 해제 호스트에 있을 때 해당 Spark 작업이 중단되는 문제를 수정했습니다.
+ Amazon EMR 6.6.0\$16.9.x에서는 ORDER BY 또는 SORT BY 절과 동적 파티션에서의 INSERT 쿼리에 항상 두 개의 reducer가 있습니다. 이 문제는 OSS 변경 [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) 때문에 발생하며, 이로 인해 비용 기반 의사 결정에 따라 동적 정렬 파티션 최적화가 적용됩니다. 워크로드에 동적 파티션 정렬이 필요하지 않은 경우 새 기능을 비활성화하고 올바르게 계산된 reducer 수를 가져오도록 `hive.optimize.sort.dynamic.partition.threshold` 속성을 `-1`로 설정하는 것이 좋습니다. 이 문제는 OSS Hive에서 [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) 일부로 수정되었으며 Amazon EMR 6.10.0에서 수정되었습니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.
**참고**  
이 릴리스에서는 패치 릴리스가 1개 더 추가되었으므로 더 이상 자동 AMI 업데이트를 받지 않습니다. 패치 릴리스는 소수점 두 번째 자리 뒤의 숫자(`6.8.1`)로 표시됩니다. 최신 패치 릴리스를 사용하는지 확인하려면 [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide)에서 사용 가능한 릴리스를 확인하거나, 콘솔에서 클러스터를 생성할 때 **Amazon EMR 릴리스** 드롭다운을 확인하거나, [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) API 또는 [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) CLI 작업을 사용합니다. 새 릴리스에 대한 업데이트를 받으려면 [새로운 기능](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)에서 RSS 피드를 구독하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-6100-release.html)

## 6.10.0 구성 요소 버전
<a name="emr-6100-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.2.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.7.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.24.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.3.0 | EMR S3Select 커넥터 | 
| emr-wal-cli | 1.0.0 | emrwal 목록/삭제에 사용되는 CLI입니다. | 
| emrfs | 2.55.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.16.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.16.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-2 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.15-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.15-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.15-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.15-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.15-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.15-amzn-0 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-3 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-3 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-3 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-3 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-3 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-3 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-3 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.12.2-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.12.2-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.12.2-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.12.2-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 1.1.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.5.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.8.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.278.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.278.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.278.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 403-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 403-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 403-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.3.1-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.3.1-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.3.1-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.3.1-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 22.12.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-1 | tez YARN 애플리케이션 및 라이브러리. | 
| tez-on-worker | 0.10.2-amzn-1 | 워커 노드에 대한 tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.10.0 구성 분류
<a name="emr-6100-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.10.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hudi | Trino hudi.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-logback | Ranger KMS kms-logback.xml 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.10.0 변경 로그
<a name="6100-changelog"></a>


**6.10.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-08-21 | 업데이트 | Hadoop 3.3.3에서 발생하는 것으로 알려진 문제가 추가되었습니다. | 
| 2023-07-26 | 업데이트 | 새 OS 릴리스 레이블 2.0.20230612.0 및 2.0.20230628.0. | 
| 2023-03-02 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.10 전체 배포됨 | 
| 2023-03-02 | 문서 게시 | Amazon EMR 6.10 릴리스 정보 최초 게시됨 | 
| 2023-02-27 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 6.10 최초 배포됨 | 

# Amazon EMR 릴리스 6.9.1
<a name="emr-691-release"></a>

## 6.9.1 애플리케이션 버전
<a name="emr-691-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.9.1 | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 | 2.1.0 |  -  |  -  | 
| Flink | 1.15.2 | 1.15.2 | 1.15.1 | 1.15.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0.1 | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 
| HCatalog | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hadoop | 3.3.3-amzn-1.1 | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 
| Hive | 3.1.3-amzn-2.1 | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 
| Hudi | 0.12.1-amzn-0 | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.9.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 
| Spark | 3.3.0-amzn-1.1 | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.10.0 | 2.9.1 | 2.9.1 | 
| Tez | 0.10.2-amzn-0.1 | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.1 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.10 | 

## 6.9.1 릴리스 정보
<a name="emr-691-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.9.1에 대한 정보가 포함됩니다. 변경 사항은 6.9.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [6.9.1 변경 로그](#691-changelog) 섹션을 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Hadoop 3.3.3에서는 애플리케이션이 완료될 때까지 컨테이너가 실행되는 노드를 서비스 해제 상태로 유지하는 YARN의 변경 사항([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608))을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. 이 접근 방식을 사용하면 Managed Scaling의 활성화 여부에 상관없이 클러스터에서 리소스 사용률이 낮아질 수도 있습니다.

  Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1, 6.10.1에서는 이 문제를 해결하기 위해 `yarn-site.xml`에서 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` 값이 `false`로 설정됩니다.

  이 수정 사항은 YARN-9608 때문에 발생한 문제를 해결하지만, Managed Scaling이 활성화된 클러스터에서는 셔플 데이터 손실로 인해 Hive 작업이 실패할 수 있습니다. 이번 릴리스에서는 Hive 워크로드에 대해 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data`도 설정하여 이러한 위험을 완화했습니다. 이 구성은 Amazon EMR 릴리스 6.11.0 이상에서만 사용할 수 있습니다.
+ 지표 수집기는 인스턴스 그룹 구성을 사용하는 클러스터의 프라이머리 노드를 장애 조치한 후 컨트롤 플레인에 지표를 전송하지 않습니다.
+ 이 릴리스에서는 지표 수집기 엔드포인트에 대한 실패한 HTTP 요청의 재시도가 제거되었습니다.
+ 이 릴리스에는 다시 시작한 후 고가용성 클러스터를 장애 상태에서 복구할 수 있도록 지원하는 변경 사항이 포함되어 있습니다.
+ 이 릴리스에서는 사용자가 생성한 UID가 클 경우 오버플로 예외가 발생하는 문제를 수정했습니다.
+ 이 릴리스에서는 Amazon EMR 재구성 프로세스와 관련된 제한 시간 초과 문제를 수정했습니다.
+ 이 릴리스에는 보안 수정 사항이 포함되어 있습니다.
+ 이 릴리스에서는 Amazon EMR을 사용하여 Spark에서 워크로드를 실행하는 클러스터가 `contains`, `startsWith`, `endsWith`, `like`에서 잘못된 결과를 자동으로 수신할 수 있는 문제를 수정했습니다. 이 문제는 Amazon EMR Hive3 Metastore Server(HMS)에 메타데이터가 있는 파티셔닝된 필드에서 표현식을 사용할 때 발생합니다.
+ Amazon EMR 6.6.0\$16.9.x에서는 ORDER BY 또는 SORT BY 절과 동적 파티션에서의 INSERT 쿼리에 항상 두 개의 reducer가 있습니다. 이 문제는 OSS 변경 [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) 때문에 발생하며, 이로 인해 비용 기반 의사 결정에 따라 동적 정렬 파티션 최적화가 적용됩니다. 워크로드에 동적 파티션 정렬이 필요하지 않은 경우 새 기능을 비활성화하고 올바르게 계산된 reducer 수를 가져오도록 `hive.optimize.sort.dynamic.partition.threshold` 속성을 `-1`로 설정하는 것이 좋습니다. 이 문제는 OSS Hive에서 [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) 일부로 수정되었으며 Amazon EMR 6.10.0에서 수정되었습니다.
+ HDFS를 스크래치 디렉터리로 사용하고 작은 파일 병합을 활성화하며 테이블에 정적 파티션 경로가 포함된 Hive에서 데이터 손실이 발생할 수 있습니다.
+ 이 릴리스에서는 ETL 작업 종료 시 작은 작은 파일 병합(기본적으로 비활성화됨)이 활성화된 경우 Hive의 성능 문제를 수정했습니다.
+ 이 릴리스에서는 사용자 정의 함수(UDF)가 없을 때 발생하는 Glue 측 제한 관련 문제를 수정했습니다.
+ 이 릴리스에서는 YARN 서비스 해제 시 로그 푸셔가 컨테이너 로그를 S3로 푸시하기 전에 노드 로그 집계 서비스에서 컨테이너 로그를 삭제하는 문제를 수정했습니다.
+ 이 릴리스에서는 HBase에 대한 지속적 스토어 파일 추적에서 압축된 파일 및 아카이브된 파일의 처리를 수정합니다.
+ 이 릴리스에서는 `spark-defaults.conf`에서 `spark.yarn.heterogeneousExecutors.enabled` 구성의 기본 `true` 값을 설정할 때 Spark 성능에 영향을 주던 문제를 수정했습니다.
+ 이 릴리스에서는 Reduce 작업이 셔플 데이터를 읽지 못하는 문제를 수정했습니다. 이 문제로 인해 Hive 쿼리가 실패하고 메모리 손상 오류가 발생했습니다.
+ 이 릴리스에서는 노드 대치 중에 HDFS Namenode(NN) 서비스가 안전 모드에서 멈춘 경우 노드 프로비저너에 오류가 발생하는 문제를 수정했습니다.
+ 이 릴리스에서는 Presto 또는 Trino를 실행하는 EMR 클러스터의 클러스터 조정 워크플로에 새로운 재시도 메커니즘을 추가합니다. 이 개선 사항을 통해 크기 조정 작업의 한 번 실패로 인해 클러스터 크기 조정이 무기한 중단될 위험이 줄어듭니다. 또한 클러스터를 더 빠르게 스케일 업 및 스케일 다운하므로 클러스터 활용도가 향상됩니다.
+ 이 릴리스에서는 클러스터가 클러스터의 HDFS 복제 계수 설정 미만으로 코어 노드의 스케일 다운을 시도하지 않도록 클러스터 스케일 다운 로직을 개선합니다. 이는 데이터 중복성 요구 사항에 부합하며 조정 작업이 중단될 가능성을 줄여줍니다.
+ 로컬 인스턴스 스토리지의 열린 파일 핸들 및 관련 프로세스에서 현재 사용 중인 모든 로그를 식별하도록 로그 관리 대몬(daemon)이 업그레이드되었습니다. 이 업그레이드를 통해 Amazon EMR은 로그를 Amazon S3에 아카이브한 후 파일을 올바르게 삭제하고 스토리지 공간을 확보할 수 있습니다.
+ 이 릴리스에는 로컬 클러스터 파일 시스템에서 사용되지 않는 빈 단계 디렉터리를 삭제하는 로그 관리 대몬(daemon) 개선 사항이 포함되어 있습니다. 빈 디렉터리가 너무 많으면 Amazon EMR 대몬(daemon)의 성능이 저하되고 디스크가 과도하게 사용될 수 있습니다.
+ 이 릴리스에서는 여러 프라이머리 노드를 포함하는 클러스터에서 프라이머리 노드 중 하나를 복제하여 엣지 노드를 생성할 때 발생할 수 있는 문제를 수정했습니다. 복제된 엣지 노드로 인해 스케일 다운 작업이 지연되거나 프라이머리 노드의 메모리 사용률이 높아질 수 있습니다. EMR 클러스터와 통신하기 위해 엣지 노드를 생성하는 방법에 대한 자세한 내용은 GitHub의 `aws-samples` 리포지토리에서 [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator)를 참조하세요.
+ 이 릴리스에서는 Amazon EMR이 재부팅 후 Amazon EBS 볼륨을 인스턴스에 다시 마운트하는 데 사용하는 자동화 프로세스를 개선합니다.
+ 이 릴리스에서는 Amazon EMR이 Amazon CloudWatch에 게시하는 Hadoop 지표에 간헐적으로 간격이 발생하는 문제를 수정했습니다.
+ 이 릴리스에서는 클러스터의 노드 제외 목록이 포함된 YARN 구성 파일에 대한 업데이트가 디스크 과다 사용으로 인해 중단되는 EMR 클러스터 관련 문제를 수정했습니다. 업데이트가 불완전하면 향후 클러스터 스케일 다운 작업에 방해가 됩니다. 이 릴리스에서는 클러스터를 정상 상태로 유지하고 조정 작업을 예상대로 수행하도록 보장합니다.
+ 이 릴리스에서는 EMR 클러스터의 추가 로그 폴더를 모니터링하도록 클러스터 내 로그 관리 대몬(daemon)이 개선되었습니다. 이 개선 사항은 디스크 과다 사용 시나리오를 최소화합니다.
+ 이 릴리스에서는 클러스터 내 로그 관리 대몬(daemon)이 중지되면 해당 대몬(daemon)을 자동으로 다시 시작합니다. 이 개선 사항은 디스크 과다 사용으로 인해 노드가 비정상으로 보이는 위험을 줄입니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-691-release.html)

## 6.9.1 구성 요소 버전
<a name="emr-691-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.1.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.6.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.23.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.54.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.15.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.15.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-1.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-1.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-1.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-1.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-1.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.13-amzn-0.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.13-amzn-0.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.13-amzn-0.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.13-amzn-0.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.13-amzn-0.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.13-amzn-0.1 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-2.1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-2.1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-2.1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-2.1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-2.1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-2.1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-2.1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.12.1-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.12.1-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.12.1-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.12.1-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.7.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.276-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.276-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.276-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 398-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 398-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 398-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.3.0-amzn-1.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.3.0-amzn-1.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.3.0-amzn-1.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.3.0-amzn-1.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 22.08.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.10.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-0.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.9.1 구성 분류
<a name="emr-691-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.9.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.9.1 변경 로그
<a name="691-changelog"></a>


**6.9.1 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-08-30 | 릴리스 정보 업데이트 | 릴리스 정보에 컨트롤 플레인 관련 수정 사항이 여러 개 추가되었습니다. | 
| 2023-08-21 | 문서 게시 | Amazon EMR 6.9.1 릴리스 정보 최초 게시됨 | 
| 2023-08-16 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.9.1 전체 배포됨 | 
| 2023-08-04 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 6.9.1 최초 배포됨 | 

# Amazon EMR 릴리스 6.9.0
<a name="emr-690-release"></a>

## 6.9.0 애플리케이션 버전
<a name="emr-690-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://delta.io/](https://delta.io/), [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.15 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta | 2.1.0 |  -  |  -  |  -  | 
| Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.13-amzn-0 | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 
| HCatalog | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hadoop | 3.3.3-amzn-1 | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 
| Hive | 3.1.3-amzn-2 | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 
| Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.276-amzn-0 | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 
| Spark | 3.3.0-amzn-1 | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.10.0 | 2.9.1 | 2.9.1 | 2.4.1 | 
| Tez | 0.10.2-amzn-0 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 398-amzn-0 | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.1 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3.5.7 | 

## 6.9.0 릴리스 정보
<a name="emr-690-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.9.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 릴리스 6.8.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [변경 로그](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-690-release.html#690-changelog)를 참조하세요.

**새로운 기능**
+ Amazon EMR 릴리스 6.9.0에서는 Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398, Tez 0.10.2를 지원합니다.
+ Amazon EMR 릴리스 6.9.0에는 새로운 오픈 소스 애플리케이션, [Delta Lake](emr-delta.md) 2.1.0이 포함되어 있습니다.
+ Apache Spark용 Amazon Redshift 통합은 Amazon EMR 릴리스 6.9.0 이상에 포함되어 있습니다. 이전의 오픈 소스 도구였던, 이 기본 통합은 Spark 커넥터로, Amazon Redshift와 Amazon Redshift Serverless에서 데이터를 읽고 쓰는 Apache Spark 애플리케이션을 빌드할 수 있습니다. 자세한 내용은 [Amazon EMR에서 Apache Spark용 Amazon Redshift 통합 사용](emr-spark-redshift.md) 단원을 참조하십시오.
+ Amazon EMR 릴리스 6.9.0은 클러스터 스케일 다운 중에 Amazon S3에 로그를 아카이브하기 위한 지원을 추가합니다. 이전에는 클러스터 종료 중에만 Amazon S3에 로그 파일을 아카이브할 수 있었습니다. 새로운 기능을 통해 클러스터에서 생성된 로그 파일은 노드가 종료된 후에도 Amazon S3에서 계속 유지됩니다. 자세한 내용은 [클러스터 로깅 및 디버깅 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html)을 참조하세요.
+ 이제 Trino에는 장기 실행 쿼리를 지원하기 위해 내결함성 실행 메커니즘이 포함됩니다. 내결함성 실행은 실패한 쿼리 또는 구성 요소 작업을 재시도하여 쿼리 실패를 완화합니다.
+ Iceberg, Kinesis 또는 Kafka와 같은 Flink 테이블 소스의 메타데이터 또는 Apache Hive 테이블의 통합된 `BATCH` 및 `STREAM` 처리를 위해 Amazon EMR에서 Apache Flink를 사용할 수 있습니다. AWS Management Console AWS CLI또는 Amazon EMR API를 사용하여 AWS Glue 데이터 카탈로그를 Flink의 메타스토어로 지정할 수 있습니다. 자세한 내용은 [Amazon EMR에서 Flink 구성](flink-configure.md) 단원을 참조하십시오.
+ 이제 Amazon SageMaker AI Studio를 사용하여 Amazon EMR on EC2 클러스터에서 Apache Spark, Apache Hive 및 Presto 쿼리에 대한 ( AWS Identity and Access Management IAM) 런타임 역할 및 AWS Lake Formation기반 액세스 제어를 지정할 수 있습니다. Amazon SageMaker 자세한 내용은 [Amazon EMR 단계에 대한 런타임 역할 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html)을 참조하세요.

**알려진 문제**
+ Amazon EMR 릴리스 6.9.0의 경우 Trino는 Apache Ranger가 활성화된 클러스터에서 작동하지 않습니다. Ranger와 함께 Trino를 사용해야 하는 경우 [지원](https://console.aws.amazon.com/support/home#/)에 문의하세요.
+ Apache Spark용 Amazon Redshift 통합을 사용하고 Parquet 형식의 time, timetz, timestamp 또는 timestamptz(마이크로초 정밀도)를 사용하는 경우 커넥터는 시간 값을 가장 가까운 밀리초 값으로 반올림합니다. 해결 방법으로 텍스트 언로드 형식 `unload_s3_format` 파라미터를 사용합니다.
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.
+ Amazon SageMaker AI Studio에서 Amazon EMR 클러스터에 대한 연결이 **403 금지됨** 응답 코드와 함께 간헐적으로 실패할 수 있습니다. 이 오류는 클러스터에서 IAM 역할을 설정하는 데 60초를 초과하는 경우 발생합니다. 해결 방법으로 Amazon EMR 패치를 설치하여 재시도를 활성화하고 제한 시간을 최소 300초로 늘릴 수 있습니다. 다음 단계를 사용하여 클러스터를 시작할 때 부트스트랩 작업을 적용합니다.

  1.  다음 Amazon S3 URI에서 부트스트랩 스크립트와 RPM 파일을 다운로드합니다.

     ```
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh
     s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
     ```

  1. 이전 단계의 파일을 사용자가 소유한 Amazon S3 버킷에 업로드합니다. 버킷은 클러스터를 시작하려는 AWS 리전 동일한에 있어야 합니다.

  1. EMR 클러스터를 시작할 때 다음 부트스트랩 작업을 포함합니다. *bootstrap\$1URI* 및 *RPM\$1URI*를 Amazon S3의 해당되는 URI로 바꿉니다.

     ```
     --bootstrap-actions "Path=bootstrap_URI,Args=[RPM_URI]"
     ```
+ Amazon EMR 릴리스 5.36.0 및 6.6.0\$16.9.0까지는 Log4j2 속성의 잘못된 파일 이름 패턴 구성으로 인해 `SecretAgent` 및 `RecordServer` 서비스 구성 요소에 로그 데이터가 손실될 수 있습니다. 잘못된 구성으로 인해 구성 요소에서 하루에 하나의 로그 파일만 생성합니다. 로테이션 전략이 수행되면 예상대로 새 로그 파일을 생성하는 대신 기존 파일을 덮어씁니다. 해결 방법으로 부트스트랩 작업을 사용하여 매시간 로그 파일을 생성하고 파일 이름에 자동 증가 정수를 추가하여 교체를 처리합니다.

  Amazon EMR 6.6.0\$16.9.0 릴리스의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Amazon EMR 5.36.0의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ Apache Flink는 네이티브 S3 FileSystem 및 Hadoop FileSystem 커넥터를 제공합니다. 이 커넥터를 사용하면 애플리케이션에서 FileSink를 생성하고 Amazon S3에 데이터를 쓸 수 있습니다. 이 FileSink는 다음 두 가지 예외 중 하나로 인해 실패합니다.

  ```
  java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
  ```

  ```
  Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy;
                                          at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
  ```

  해결 방법으로 Amazon EMR 패치를 설치할 수 있습니다. 그러면 Flink에서 위 문제를 해결할 수 있습니다. 클러스터를 시작할 때 부트스트랩 작업을 적용하려면 다음 단계를 완료합니다.

  1. flink-rpm을 사용자의 Amazon S3 버킷에 다운로드합니다. RPM 경로는 `s3://DOC-EXAMPLE-BUCKET/rpms/flink/`입니다.

  1. 다음 URI를 사용하여 Amazon S3에서 부트스트랩 스크립트와 RPM 파일을 다운로드합니다. 를 클러스터를 시작하려는 AWS 리전 `regionName`로 바꿉니다.

     ```
     s3://emr-data-access-control-regionName/customer-bootstrap-actions/gcsc/replace-rpms.sh
     ```

  1. Hadoop 3.3.3에서는 애플리케이션이 완료될 때까지 컨테이너가 실행되는 노드를 서비스 해제 상태로 유지하는 YARN의 변경 사항([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608))을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. Amazon EMR 6.8.0 및 6.9.0에서 이 접근 방식을 사용하면 Managed Scaling의 활성화 여부에 상관없이 클러스터에서 리소스 사용률이 낮아질 수도 있습니다.

     [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes)에서 이 문제를 해결하려면 `yarn-site.xml`에서 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications`의 값을 `false`로 설정합니다. Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1, 6.10.1에서는 이 문제를 해결하기 위해 기본적으로 구성이 `false`로 설정되어 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 릴리스 6.9.0 이상의 경우 Log4j 라이브러리를 사용하는 Amazon EMR에서 설치한 모든 구성 요소는 Log4j 버전 2.17.1 이상을 사용합니다.
+ Amazon EMR 버전 6.6.0, 6.7.0 및 6.8.0에서 Spark와 함께 DynamoDB 커넥터를 사용하는 경우 입력 분할이 비어 있지 않은 데이터를 참조하더라도 테이블에서 모든 읽기는 빈 결과를 반환합니다. Amazon EMR 릴리스 6.9.0에서는 이 문제가 수정되었습니다.
+ Amazon EMR 6.9.0에서는 Spark SQL을 사용하여 데이터를 읽을 때 Apache Hudi를 사용한 Lake Formation 기반 액세스 제어에 대한 제한된 지원을 추가했습니다. Spark SQL을 사용하는 SELECT 쿼리가 지원되며 열 수준의 액세스 제어로 제한됩니다. 자세한 내용은 [Hudi 및 Lake Formation](https://docs.aws.amazon.com/emr/latest/ManagementGuide/hudi-with-lake-formation.html)을 참조하세요.
+ Amazon EMR 6.9.0을 사용하여 [노드 레이블](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/NodeLabel.html)을 활성화한 상태로 Hadoop 클러스터를 생성하면 [YARN 지표 API](https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/ResourceManagerRest.html#Cluster_Metrics_API)에서 기본 파티션이 아닌 모든 파티션에서 집계된 정보를 반환합니다. 자세한 내용은 [YARN-11414](https://issues.apache.org/jira/browse/YARN-11414)를 참조하세요.
+ Amazon EMR 릴리스 6.9.0에서 Trino를 버전 398(Java 17 사용)로 업데이트했습니다. Amazon EMR 6.8.0에서 이전에 지원되던 Trino 버전은 Java 11에서 실행되는 Trino 388이었습니다. 이 변경 사항에 대한 자세한 내용은 Trino 블로그에서 [Trino updates to Java 17](https://trino.io/blog/2022/07/14/trino-updates-to-java-17.html)을 참조하세요.
+ 이 릴리스에서는 Apache BigTop 및 Amazon EMR on EC2 클러스터 시작 시퀀스 간 타이밍 시퀀스 불일치 문제를 수정했습니다. 이 타이밍 시퀀스 불일치는 시스템에서 둘 이상의 작업을 적절한 순서로 수행하는 대신 동시에 수행하려고 할 때 발생합니다. 따라서 특정 클러스터 구성에서 인스턴스 시작 제한 시간을 초과하고 클러스터 시작 시간이 느려지는 문제가 발생했습니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.
**참고**  
이 릴리스에서는 패치 릴리스가 1개 더 추가되었으므로 더 이상 자동 AMI 업데이트를 받지 않습니다. 패치 릴리스는 소수점 두 번째 자리 뒤의 숫자(`6.8.1`)로 표시됩니다. 최신 패치 릴리스를 사용하는지 확인하려면 [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide)에서 사용 가능한 릴리스를 확인하거나, 콘솔에서 클러스터를 생성할 때 **Amazon EMR 릴리스** 드롭다운을 확인하거나, [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) API 또는 [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) CLI 작업을 사용합니다. 새 릴리스에 대한 업데이트를 받으려면 [새로운 기능](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)에서 RSS 피드를 구독하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-690-release.html)

## 6.9.0 구성 요소 버전
<a name="emr-690-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| delta | 2.1.0 | Delta Lake는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.6.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.23.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.54.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.15.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.15.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.3.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.3.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.3.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.3.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.3.3-amzn-1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.3.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.3.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.3.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.3.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.3.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.13-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.13-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.13-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.13-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.13-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.13-amzn-0 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.12.1-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.12.1-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.12.1-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.12.1-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 0.14.1-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.7.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 6.0.0-SNAPSHOT | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 6.0.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.276-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.276-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.276-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 398-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 398-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 398-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.3.0-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.3.0-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.3.0-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.3.0-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 22.08.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.10.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.10.2-amzn-0 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.9.0 구성 분류
<a name="emr-690-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.9.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| delta-defaults | Delta delta-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j2 | Livy log4j2.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-lakeformation | Presto lakeformation.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-delta | Trino delta.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-exchange-manager | Trino exchange-manager.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.9.0 변경 로그
<a name="690-changelog"></a>


**6.9.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-08-30 | 릴리스 정보 업데이트 | 타이밍 시퀀스 불일치 문제에 대한 수정 사항 추가됨 | 
| 2023-08-21 | 릴리스 정보 업데이트 | Hadoop 3.3.3에서 알려진 문제가 추가되었습니다. | 
| 2023-07-26 | 업데이트 | 새 OS 릴리스 레이블 2.0.20230612.0 및 2.0.20230628.0. | 
| 2022-12-13 | 릴리스 정보 업데이트됨 | SageMaker AI의 런타임에 대한 기능 및 알려진 문제 추가됨 | 
| 2022-11-29 | 릴리스 정보 및 설명서를 업데이트함 | Apache Spark용 Amazon Redshift 통합에 대한 기능 추가됨 | 
| 2022-11-23 | 릴리스 정보 업데이트됨 | Log4j 항목 제거됨 | 
| 2022-11-18 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.9 전체 배포됨 | 
| 2022-11-18 | 문서 게시 | Amazon EMR 6.9 릴리스 정보 최초 게시됨 | 
| 2022-11-14 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 6.9 최초 배포됨 | 

# Amazon EMR 릴리스 6.8.1
<a name="emr-681-release"></a>

## 6.8.1 애플리케이션 버전
<a name="emr-681-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.170 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.15 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.15.1 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0.1 | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 
| HCatalog | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hadoop | 3.2.1-amzn-8.1 | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 
| Hive | 3.1.3-amzn-1.1 | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 
| Hudi | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.9.1 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 
| Spark | 3.3.0-amzn-0.1 | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.9.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 
| Zeppelin | 0.10.1 | 0.10.1 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.10 | 3.5.7 | 3.5.7 | 

## 6.8.1 릴리스 정보
<a name="emr-681-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.8.1에 대한 정보가 포함됩니다. 변경 사항은 6.8.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [6.8.1 변경 로그](#681-changelog) 섹션을 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Hadoop 3.3.3에서는 애플리케이션이 완료될 때까지 컨테이너가 실행되는 노드를 서비스 해제 상태로 유지하는 YARN의 변경 사항([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608))을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. 이 접근 방식을 사용하면 Managed Scaling의 활성화 여부에 상관없이 클러스터에서 리소스 사용률이 낮아질 수도 있습니다.

  Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1, 6.10.1에서는 이 문제를 해결하기 위해 `yarn-site.xml`에서 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications` 값이 `false`로 설정됩니다.

  이 수정 사항은 YARN-9608 때문에 발생한 문제를 해결하지만, Managed Scaling이 활성화된 클러스터에서는 셔플 데이터 손실로 인해 Hive 작업이 실패할 수 있습니다. 이번 릴리스에서는 Hive 워크로드에 대해 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-shuffle-data`도 설정하여 이러한 위험을 완화했습니다. 이 구성은 Amazon EMR 릴리스 6.11.0 이상에서만 사용할 수 있습니다.
+ 지표 수집기는 인스턴스 그룹 구성을 사용하는 클러스터의 프라이머리 노드를 장애 조치한 후 컨트롤 플레인에 지표를 전송하지 않습니다.
+ 이 릴리스에서는 지표 수집기 엔드포인트에 대한 실패한 HTTP 요청의 재시도가 제거되었습니다.
+ 이 릴리스에는 다시 시작한 후 고가용성 클러스터를 장애 상태에서 복구할 수 있도록 지원하는 변경 사항이 포함되어 있습니다.
+ 이 릴리스에서는 사용자가 생성한 UID가 클 경우 오버플로 예외가 발생하는 문제를 수정했습니다.
+ 이 릴리스에서는 Amazon EMR 재구성 프로세스와 관련된 제한 시간 초과 문제를 수정했습니다.
+ 이번 릴리스에서는 재구성 실패로 인해 관련 없는 다른 프로세스가 중단될 수 있는 문제를 방지합니다.
+ 이 릴리스에는 보안 수정 사항이 포함되어 있습니다.
+ 이 릴리스에서는 Amazon EMR을 사용하여 Spark에서 워크로드를 실행하는 클러스터가 `contains`, `startsWith`, `endsWith`, `like`에서 잘못된 결과를 자동으로 수신할 수 있는 문제를 수정했습니다. 이 문제는 Amazon EMR Hive3 Metastore Server(HMS)에 메타데이터가 있는 파티셔닝된 필드에서 표현식을 사용할 때 발생합니다.
+ Amazon EMR 6.6.0\$16.9.x에서는 ORDER BY 또는 SORT BY 절과 동적 파티션에서의 INSERT 쿼리에 항상 두 개의 reducer가 있습니다. 이 문제는 OSS 변경 [HIVE-20703](https://issues.apache.org/jira/browse/HIVE-20703) 때문에 발생하며, 이로 인해 비용 기반 의사 결정에 따라 동적 정렬 파티션 최적화가 적용됩니다. 워크로드에 동적 파티션 정렬이 필요하지 않은 경우 새 기능을 비활성화하고 올바르게 계산된 reducer 수를 가져오도록 `hive.optimize.sort.dynamic.partition.threshold` 속성을 `-1`로 설정하는 것이 좋습니다. 이 문제는 OSS Hive에서 [HIVE-22269](https://issues.apache.org/jira/browse/HIVE-22269) 일부로 수정되었으며 Amazon EMR 6.10.0에서 수정되었습니다.
+ HDFS를 스크래치 디렉터리로 사용하고 작은 파일 병합을 활성화하며 테이블에 정적 파티션 경로가 포함된 Hive에서 데이터 손실이 발생할 수 있습니다.
+ 이 릴리스에서는 ETL 작업 종료 시 작은 작은 파일 병합(기본적으로 비활성화됨)이 활성화된 경우 Hive의 성능 문제를 수정했습니다.
+ 이 릴리스에서는 사용자 정의 함수(UDF)가 없을 때 발생하는 Glue 측 제한 관련 문제를 수정했습니다.
+ 이 릴리스에서는 YARN 서비스 해제 시 로그 푸셔가 컨테이너 로그를 S3로 푸시하기 전에 노드 로그 집계 서비스에서 컨테이너 로그를 삭제하는 문제를 수정했습니다.
+ 이 릴리스에서는 HBase에 대한 지속적 스토어 파일 추적에서 압축된 파일 및 아카이브된 파일의 처리를 수정합니다.
+ 이 릴리스에서는 `spark-defaults.conf`에서 `spark.yarn.heterogeneousExecutors.enabled` 구성의 기본 `true` 값을 설정할 때 Spark 성능에 영향을 주던 문제를 수정했습니다.
+ 이 릴리스에서는 Reduce 작업이 셔플 데이터를 읽지 못하는 문제를 수정했습니다. 이 문제로 인해 Hive 쿼리가 실패하고 메모리 손상 오류가 발생했습니다.
+ 이 릴리스에서는 노드 대치 중에 HDFS Namenode(NN) 서비스가 안전 모드에서 멈춘 경우 노드 프로비저너에 오류가 발생하는 문제를 수정했습니다.
+ 이 릴리스에서는 Presto 또는 Trino를 실행하는 EMR 클러스터의 클러스터 조정 워크플로에 새로운 재시도 메커니즘을 추가합니다. 이 개선 사항을 통해 크기 조정 작업의 한 번 실패로 인해 클러스터 크기 조정이 무기한 중단될 위험이 줄어듭니다. 또한 클러스터를 더 빠르게 스케일 업 및 스케일 다운하므로 클러스터 활용도가 향상됩니다.
+ 이 릴리스에서는 클러스터가 클러스터의 HDFS 복제 계수 설정 미만으로 코어 노드의 스케일 다운을 시도하지 않도록 클러스터 스케일 다운 로직을 개선합니다. 이는 데이터 중복성 요구 사항에 부합하며 조정 작업이 중단될 가능성을 줄여줍니다.
+ 로컬 인스턴스 스토리지의 열린 파일 핸들 및 관련 프로세스에서 현재 사용 중인 모든 로그를 식별하도록 로그 관리 대몬(daemon)이 업그레이드되었습니다. 이 업그레이드를 통해 Amazon EMR은 로그를 Amazon S3에 아카이브한 후 파일을 올바르게 삭제하고 스토리지 공간을 확보할 수 있습니다.
+ 이 릴리스에는 로컬 클러스터 파일 시스템에서 사용되지 않는 빈 단계 디렉터리를 삭제하는 로그 관리 대몬(daemon) 개선 사항이 포함되어 있습니다. 빈 디렉터리가 너무 많으면 Amazon EMR 대몬(daemon)의 성능이 저하되고 디스크가 과도하게 사용될 수 있습니다.
+ 이 릴리스에서는 여러 프라이머리 노드를 포함하는 클러스터에서 프라이머리 노드 중 하나를 복제하여 엣지 노드를 생성할 때 발생할 수 있는 문제를 수정했습니다. 복제된 엣지 노드로 인해 스케일 다운 작업이 지연되거나 프라이머리 노드의 메모리 사용률이 높아질 수 있습니다. EMR 클러스터와 통신하기 위해 엣지 노드를 생성하는 방법에 대한 자세한 내용은 GitHub의 `aws-samples` 리포지토리에서 [Edge Node Creator](https://github.com/aws-samples/aws-emr-utilities/tree/main/utilities/emr-edge-node-creator)를 참조하세요.
+ 이 릴리스에서는 Amazon EMR이 재부팅 후 Amazon EBS 볼륨을 인스턴스에 다시 마운트하는 데 사용하는 자동화 프로세스를 개선합니다.
+ 이 릴리스에서는 Amazon EMR이 Amazon CloudWatch에 게시하는 Hadoop 지표에 간헐적으로 간격이 발생하는 문제를 수정했습니다.
+ 이 릴리스에서는 클러스터의 노드 제외 목록이 포함된 YARN 구성 파일에 대한 업데이트가 디스크 과다 사용으로 인해 중단되는 EMR 클러스터 관련 문제를 수정했습니다. 업데이트가 불완전하면 향후 클러스터 스케일 다운 작업에 방해가 됩니다. 이 릴리스에서는 클러스터를 정상 상태로 유지하고 조정 작업을 예상대로 수행하도록 보장합니다.
+ 이 릴리스에서는 EMR 클러스터의 추가 로그 폴더를 모니터링하도록 클러스터 내 로그 관리 대몬(daemon)이 개선되었습니다. 이 개선 사항은 디스크 과다 사용 시나리오를 최소화합니다.
+ 이 릴리스에서는 클러스터 내 로그 관리 대몬(daemon)이 중지되면 해당 대몬(daemon)을 자동으로 다시 시작합니다. 이 개선 사항은 디스크 과다 사용으로 인해 노드가 비정상으로 보이는 위험을 줄입니다.
+ 이번 릴리스에서는 클러스터 스케일 다운 중에 Amazon S3에 로그 아카이브에 대한 지원이 추가되었습니다. 이전에는 클러스터 종료 중에만 Amazon S3에 로그 파일을 아카이브할 수 있었습니다. 새로운 기능을 통해 클러스터에서 생성된 로그 파일은 노드가 종료된 후에도 Amazon S3에서 계속 유지됩니다. 자세한 내용은 [클러스터 로깅 및 디버깅 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html)을 참조하세요.
+ 이 릴리스에서는 부트스트랩 작업에 대한 Amazon S3 URI가 포트 번호로 끝날 때(예: `a.b.c.d:4345`) 발생한 문제를 수정합니다. Amazon EMR이 이러한 URI를 잘못 구문 분석했기 때문에 관련 부트스트랩 작업이 모두 실패했습니다.
+ 이 릴리스에서는 Apache BigTop 및 Amazon EMR on EC2 클러스터 시작 시퀀스 간 타이밍 시퀀스 불일치 문제를 수정했습니다. 이 타이밍 시퀀스 불일치는 시스템에서 둘 이상의 작업을 적절한 순서로 수행하는 대신 동시에 수행하려고 할 때 발생합니다. 따라서 특정 클러스터 구성에서 인스턴스 시작 제한 시간을 초과하고 클러스터 시작 시간이 느려지는 문제가 발생했습니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-681-release.html)

## 6.8.1 구성 요소 버전
<a name="emr-681-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.22.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.53.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.15.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.15.1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-8.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-8.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-8.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-8.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-8.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.12-amzn-0.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.12-amzn-0.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.12-amzn-0.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.12-amzn-0.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.12-amzn-0.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.12-amzn-0.1 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-1.1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-1.1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-1.1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-1.1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-1.1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-1.1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-1.1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.11.1-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.11.1-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.11.1-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.11.1-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.7.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.2 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 5.1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.273.3-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.273.3-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.273.3-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 388-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 388-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 388-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.3.0-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.3.0-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.3.0-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.3.0-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 22.06.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.9.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.8.1 구성 분류
<a name="emr-681-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.8.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.8.1 변경 로그
<a name="681-changelog"></a>


**6.8.1 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-08-30 | 릴리스 정보 업데이트 | 릴리스 정보에 컨트롤 플레인 관련 수정 사항이 여러 개 추가되었습니다. | 
| 2023-08-21 | 문서 게시 | Amazon EMR 6.8.1 릴리스 정보 최초 게시됨 | 
| 2023-08-16 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.8.1 전체 배포됨 | 
| 2023-08-04 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 6.8.1 최초 배포됨 | 

# Amazon EMR 릴리스 6.8.0
<a name="emr-680-release"></a>

## 6.8.0 애플리케이션 버전
<a name="emr-680-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.8.0 | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.170 | 1.12.170 | 1.12.170 | 1.12.31 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.15 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.15.1 | 1.14.2 | 1.14.2 | 1.14.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.12-amzn-0 | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 
| HCatalog | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hadoop | 3.2.1-amzn-8 | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 
| Hive | 3.1.3-amzn-1 | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 
| Hudi | 0.11.1-amzn-0 | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg | 0.14.0-amzn-0 | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.9.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.273.3-amzn-0 | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 
| Spark | 3.3.0-amzn-0 | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.9.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 388-amzn-0 | 378-amzn-0 | 367-amzn-0 | 360 | 
| Zeppelin | 0.10.1 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.5.10 | 3.5.7 | 3.5.7 | 3.5.7 | 

## 6.8.0 릴리스 정보
<a name="emr-680-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.8.0에 대한 정보가 포함됩니다. 변경 사항은 6.7.0에 관련됩니다.

**새로운 기능**
+ Amazon EMR 단계 기능은 이제 Apache Livy 엔드포인트와 JSBC 및 ODBC 클라이언트를 지원합니다. 자세한 내용은 [Amazon EMR 단계에 대한 런타임 역할 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-steps-runtime-roles.html)을 참조하세요.
+ Amazon EMR 릴리스 6.8.0은 Apache HBase 릴리스 2.4.12와 함께 제공됩니다. 이 HBase 릴리스에서는 HBase 테이블을 아카이브 및 삭제할 수 있습니다. Amazon S3 아카이브 프로세스는 모든 테이블 파일의 이름을 아카이브 디렉터리로 바꿉니다. 이 프로세스는 비용이 많이 들고 시간이 오래 걸릴 수 있습니다. 이제 아카이브 프로세스를 건너뛰고 대용량 테이블을 빠르게 삭제할 수 있습니다. 자세한 내용은 [HBase 쉘 사용](emr-hbase-connect.md) 단원을 참조하십시오.

**알려진 문제**
+ Hadoop 3.3.3에서는 애플리케이션이 완료될 때까지 컨테이너가 실행되는 노드를 서비스 해제 상태로 유지하는 YARN의 변경 사항([YARN-9608](https://issues.apache.org/jira/browse/YARN-9608))을 도입했습니다. 이 변경으로 셔플 데이터와 같은 로컬 데이터가 손실되지 않으므로 작업을 다시 실행할 필요가 없습니다. Amazon EMR 6.8.0 및 6.9.0에서 이 접근 방식을 사용하면 Managed Scaling의 활성화 여부에 상관없이 클러스터에서 리소스 사용률이 낮아질 수도 있습니다.

  [Amazon EMR 6.10.0](emr-6100-release.md#emr-6100-relnotes)에서 이 문제를 해결하려면 `yarn-site.xml`에서 `yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications`의 값을 `false`로 설정합니다. Amazon EMR 릴리스 6.11.0 이상과 6.8.1, 6.9.1, 6.10.1에서는 이 문제를 해결하기 위해 기본적으로 구성이 `false`로 설정되어 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 릴리스 6.5.0, 6.6.0 또는 6.7.0에서 Apache Spark 쉘을 통해 Apache Phoenix 테이블을 읽으면 Amazon EMR에서 `NoSuchMethodError`가 발생합니다. Amazon EMR 릴리스 6.8.0에서는 이 문제가 수정되었습니다.
+ Amazon EMR 릴리스 6.8.0은 [Apache Hudi](https://hudi.apache.org/) 0.11.1과 함께 제공되지만, Amazon EMR 6.8.0 클러스터는 Hudi 0.12.0의 오픈 소스 `hudi-spark3.3-bundle_2.12`와도 호환됩니다.
+ Amazon EMR 릴리스 6.8.0은 Apache Spark 3.3.0과 함께 제공됩니다. 이번 Spark 릴리스에서는 Apache Log4j 2 및 `log4j2.properties` 파일을 사용하여 Spark 프로세스에서 Log4j를 구성합니다. 클러스터에서 Spark를 사용하거나 사용자 지정 구성 파라미터를 사용하여 EMR 클러스터를 생성하고 Amazon EMR 릴리스 6.8.0으로 업그레이드하려는 경우 Apache Log4j 2의 새로운 `spark-log4j2` 구성 분류 및 키 형식으로 마이그레이션해야 합니다. 자세한 내용은 [Apache Log4j 1.x에서 Log4j 2.x로 마이그레이션](emr-spark-configure.md#spark-migrate-logj42) 단원을 참조하십시오.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.
**참고**  
이 릴리스에서는 패치 릴리스가 1개 더 추가되었으므로 더 이상 자동 AMI 업데이트를 받지 않습니다. 패치 릴리스는 소수점 두 번째 자리 뒤의 숫자(`6.8.1`)로 표시됩니다. 최신 패치 릴리스를 사용하는지 확인하려면 [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide)에서 사용 가능한 릴리스를 확인하거나, 콘솔에서 클러스터를 생성할 때 **Amazon EMR 릴리스** 드롭다운을 확인하거나, [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) API 또는 [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) CLI 작업을 사용합니다. 새 릴리스에 대한 업데이트를 받으려면 [새로운 기능](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)에서 RSS 피드를 구독하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-680-release.html)

**알려진 문제**
+ Amazon EMR 버전 6.6.0, 6.7.0 및 6.8.0에서 Spark와 함께 DynamoDB 커넥터를 사용하는 경우 입력 분할이 비어 있지 않은 데이터를 참조하더라도 테이블에서 모든 읽기는 빈 결과를 반환합니다. Spark 3.2.0에서는 기본적으로 `spark.hadoopRDD.ignoreEmptySplits`를 `true`로 설정하기 때문입니다. 해결 방법으로 `spark.hadoopRDD.ignoreEmptySplits`를 명시적으로 `false`로 설정합니다. Amazon EMR 릴리스 6.9.0에서는 이 문제가 수정되었습니다.
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.
+ Amazon EMR 릴리스 5.36.0 및 6.6.0\$16.9.0까지는 Log4j2 속성의 잘못된 파일 이름 패턴 구성으로 인해 `SecretAgent` 및 `RecordServer` 서비스 구성 요소에 로그 데이터가 손실될 수 있습니다. 잘못된 구성으로 인해 구성 요소에서 하루에 하나의 로그 파일만 생성합니다. 로테이션 전략이 수행되면 예상대로 새 로그 파일을 생성하는 대신 기존 파일을 덮어씁니다. 해결 방법으로 부트스트랩 작업을 사용하여 매시간 로그 파일을 생성하고 파일 이름에 자동 증가 정수를 추가하여 교체를 처리합니다.

  Amazon EMR 6.6.0\$16.9.0 릴리스의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Amazon EMR 5.36.0의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

릴리스 일정에 대한 자세한 내용은 [변경 로그](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-680-release.html#680-changelog)를 참조하세요.

## 6.8.0 구성 요소 버전
<a name="emr-680-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.7.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.22.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.53.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.15.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.15.1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-8 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-8 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-8 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-8 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-8 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-8 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-8 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-8 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-8 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-8 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-8 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.12-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.12-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.12-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.12-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.12-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.12-amzn-0 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.11.1-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.11.1-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.11.1-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.11.1-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 0.14.0-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.9.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.7.0 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.2 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 5.1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.273.3-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.273.3-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.273.3-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 388-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 388-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 388-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.3.0-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.3.0-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.3.0-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.3.0-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 22.06.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.9.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.10 | ZooKeeper 명령줄 클라이언트. | 

## 6.8.0 구성 분류
<a name="emr-680-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.8.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j2 | Spark log4j2.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 6.8.0 변경 로그
<a name="680-changelog"></a>


**6.8.0 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-08-21 | 업데이트 | Hadoop 3.3.3에서 알려진 문제가 추가되었습니다. | 
| 2023-07-26 | 업데이트 | 새 OS 릴리스 레이블 2.0.20230612.0 및 2.0.20230628.0. | 
| 2022-09-06 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 6.8 전체 배포됨 | 
| 2022-09-06 | 최초 게시 | Amazon EMR 6.8 릴리스 정보 최초 게시됨 | 
| 2022-08-31 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 6.8 출시됨 | 

# Amazon EMR 릴리스 6.7.0
<a name="emr-670-release"></a>

## 6.7.0 애플리케이션 버전
<a name="emr-670-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.7.0 | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.170 | 1.12.170 | 1.12.31 | 1.12.31 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.15 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.0 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-3 | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 
| HCatalog | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hadoop | 3.2.1-amzn-7 | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 
| Hive | 3.1.3-amzn-0 | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 
| Hudi | 0.11.0-amzn-0 | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1-amzn-0 | 0.13.1 | 0.12.0 |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.272-amzn-0 | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 
| Spark | 3.2.1-amzn-0 | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 378-amzn-0 | 367-amzn-0 | 360 | 359 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.5.7 | 3.5.7 | 

## 6.7.0 릴리스 정보
<a name="emr-670-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.7.0에 대한 정보가 포함됩니다. 변경 사항은 6.6.0에 관련됩니다.

최초 릴리스 날짜: 2022년 7월 15일

**새로운 기능**
+ Amazon EMR은 이제 Apache Spark 3.2.1, Apache Hive 3.1.3, HUDI 0.11, PrestoDB 0.272, Trino 0.378을 지원합니다.
+ Amazon EMR on EC2 클러스터에 대한 EMR 단계(Spark, Hive)를 통해 IAM 역할 및 Lake Formation 기반 액세스 제어를 지원합니다.
+ Apache Ranger 지원 클러스터에서 Apache Spark 데이터 정의 명령문을 지원합니다. 이제 Apache Ranger 지원 클러스터에서 Apache Hive 메타데이터를 읽고 쓰는 Trino 애플리케이션에 대한 지원이 포함됩니다. 자세한 내용은 [Enable federated governance using Trino and Apache Ranger on Amazon EMR](https://aws.amazon.com/blogs/big-data/enable-federated-governance-using-trino-and-apache-ranger-on-amazon-emr/)을 참조하세요.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-670-release.html)

**알려진 문제**
+ Amazon EMR 릴리스 6.5.0, 6.6.0 또는 6.7.0에서 Apache Spark 쉘을 통해 Apache Phoenix 테이블을 읽으면 Amazon EMR에서 잘못된 `Hbase.compat.version`을 사용하므로 `NoSuchMethodError`가 발생합니다. Amazon EMR 릴리스 6.8.0에서는 이 문제가 수정되었습니다.
+ Amazon EMR 버전 6.6.0, 6.7.0 및 6.8.0에서 Spark와 함께 DynamoDB 커넥터를 사용하는 경우 입력 분할이 비어 있지 않은 데이터를 참조하더라도 테이블에서 모든 읽기는 빈 결과를 반환합니다. Spark 3.2.0에서는 기본적으로 `spark.hadoopRDD.ignoreEmptySplits`를 `true`로 설정하기 때문입니다. 해결 방법으로 `spark.hadoopRDD.ignoreEmptySplits`를 명시적으로 `false`로 설정합니다. Amazon EMR 릴리스 6.9.0에서는 이 문제가 수정되었습니다.
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.
+ Amazon EMR 릴리스 5.36.0 및 6.6.0\$16.9.0까지는 Log4j2 속성의 잘못된 파일 이름 패턴 구성으로 인해 `SecretAgent` 및 `RecordServer` 서비스 구성 요소에 로그 데이터가 손실될 수 있습니다. 잘못된 구성으로 인해 구성 요소에서 하루에 하나의 로그 파일만 생성합니다. 로테이션 전략이 수행되면 예상대로 새 로그 파일을 생성하는 대신 기존 파일을 덮어씁니다. 해결 방법으로 부트스트랩 작업을 사용하여 매시간 로그 파일을 생성하고 파일 이름에 자동 증가 정수를 추가하여 교체를 처리합니다.

  Amazon EMR 6.6.0\$16.9.0 릴리스의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Amazon EMR 5.36.0의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```
+ Amazon EMR 6.7 이하에서 실행되는 클러스터에서는 `GetClusterSessionCredentials` API가 지원되지 않습니다.
+ 다음 Hadoop 커밋이 백포트되었습니다.

  - [[HADOOP-16080]](https://issues.apache.org/jira/browse/HADOOP-16080) `hadoop-aws`이(가) `hadoop-client-api`과(와) 함께 작동하지 않는 문제를 해결했습니다.

  - [[HADOOP-18237]](https://issues.apache.org/jira/browse/HADOOP-18237) Apache Xerces Java를 2.12.2로 업그레이드했습니다.

  - [[YARN-11092]](https://issues.apache.org/jira/browse/YARN-11092) jquery를 ui로 1.13.1로 업그레이드했습니다.

  - [[YARN-10720]](https://issues.apache.org/jira/browse/YARN-10720) YARN WebAppProxyServlet은 프록시 서버가 중단되지 않도록 연결 제한 시간을 지원해야 합니다.

## 6.7.0 구성 요소 버전
<a name="emr-670-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.6.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.22.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.52.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.14.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.14.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-7 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-7 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-7 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-7 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-7 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-7 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-7 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-7 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-7 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-7 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-7 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.4-amzn-3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.4-amzn-3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.4-amzn-3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.4-amzn-3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.4-amzn-3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.4-amzn-3 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.3-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.3-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.3-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.3-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.3-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.3-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.3-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.11.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.11.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.11.0-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.11.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 0.13.1-amzn-0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.0.194 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.2 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 5.1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.272-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.272-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.272-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 378-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 378-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 378-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.2.1-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.2.1-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.2.1-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.2.1-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 22.02.0-amzn-1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.7 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.7 | ZooKeeper 명령줄 클라이언트. | 

## 6.7.0 구성 분류
<a name="emr-670-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.7.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 6.6.0
<a name="emr-660-release"></a>

## 6.6.0 애플리케이션 버전
<a name="emr-660-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.6.0 | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.170 | 1.12.31 | 1.12.31 | 1.11.977 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.0 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-2 | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-6 | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 
| Hive | 3.1.2-amzn-7 | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 
| Hudi | 0.10.1-amzn-0 | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.13.1 | 0.12.0 |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-0 | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.2.0-amzn-0 | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 367-amzn-0 | 360 | 359 | 350 | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.5.7 | 3.4.14 | 

## 6.6.0 릴리스 정보
<a name="emr-660-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.6.0에 대한 정보가 포함됩니다. 변경 사항은 6.5.0에 관련됩니다.

최초 릴리스 날짜: 2022년 5월 9일

설명서 업데이트 날짜: 2022년 6월 15일

**새로운 기능**
+ Amazon EMR 6.6에서는 Apache Spark 3.2, Apache Spark RAPIDS 22.02, CUDA 11, Apache Hudi 0.10.1, Apache Iceberg 0.13, Trino 0.367, PrestoDB 0.267을 지원합니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-660-release.html)
+ Amazon EMR 릴리스 6.6 이상에서 Log4j 1.x 및 Log4j 2.x를 사용하는 애플리케이션은 각각 Log4j 1.2.17 이상 및 Log4j 2.17.1 이상을 사용하도록 업그레이드되었으며, CVE 문제를 완화하기 위해 [부트스트랩 작업](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-log4j-vulnerability.html)을 사용할 필요가 없습니다.
+ **[Managed Scaling] Spark 셔플 데이터 Managed Scaling 최적화** - Amazon EMR 버전 5.34.0 이상 및 EMR 버전 6.4.0 이상에서 Managed Scaling은 이제 Spark 셔플 데이터(Spark가 특정 작업을 수행하기 위해 파티션에 재분배하는 데이터)를 인식합니다. 셔플 작업에 대한 자세한 내용은 [Spark 프로그래밍 안내서](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations) 및 *Amazon EMR 관리 안내서*에서 [Amazon EMR에서 EMR Managed Scaling 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html)을 참조하세요.
+ Amazon EMR 5.32.0 및 6.5.0부터 Apache Spark의 동적 실행기 크기 조정이 기본적으로 활성화됩니다. 이 기능을 켜거나 끄기 위해 `spark.yarn.heterogeneousExecutors.enabled` 구성 파라미터를 사용할 수 있습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR에서는 EMR 기본 AMI 옵션을 사용하고 Apache Hadoop, Apache Spark, Apache Hive와 같은 일반적인 애플리케이션만 설치하는 클러스터에 대해 클러스터 시작 시간을 평균 최대 80초까지 줄일 수 있습니다.

**알려진 문제**
+ Amazon EMR 릴리스 6.5.0, 6.6.0 또는 6.7.0에서 Apache Spark 쉘을 통해 Apache Phoenix 테이블을 읽으면 Amazon EMR에서 잘못된 `Hbase.compat.version`을 사용하므로 `NoSuchMethodError`가 발생합니다. Amazon EMR 릴리스 6.8.0에서는 이 문제가 수정되었습니다.
+ Amazon EMR 버전 6.6.0, 6.7.0 및 6.8.0에서 Spark와 함께 DynamoDB 커넥터를 사용하는 경우 입력 분할이 비어 있지 않은 데이터를 참조하더라도 테이블에서 모든 읽기는 빈 결과를 반환합니다. Spark 3.2.0에서는 기본적으로 `spark.hadoopRDD.ignoreEmptySplits`를 `true`로 설정하기 때문입니다. 해결 방법으로 `spark.hadoopRDD.ignoreEmptySplits`를 명시적으로 `false`로 설정합니다. Amazon EMR 릴리스 6.9.0에서는 이 문제가 수정되었습니다.
+ Trino 장기 실행 클러스터에서 Amazon EMR 6.6.0을 사용하면 Trino jvm.config의 가비지 수집 로깅 파라미터를 통해 가비지 수집 로그에서 더 나은 인사이트를 얻을 수 있습니다. 이 변경으로 많은 가비지 수집 로그가 launcher.log(/var/log/trino/launcher.log) 파일에 추가됩니다. Amazon EMR 6.6.0에서 Trino 클러스터를 실행하는 경우 클러스터를 며칠 동안 실행한 후에 추가된 로그로 인해 노드의 디스크 공간이 부족해질 수 있습니다.

  이 문제의 해결 방법은 Amazon EMR 6.6.0에서 클러스터를 생성하거나 복제하는 동안 아래 스크립트를 부트스트랩 작업으로 실행하여 jvm.config에서 가비지 수집 로깅 파라미터를 비활성화하는 것입니다.

  ```
  #!/bin/bash
    set -ex
    PRESTO_PUPPET_DIR='/var/aws/emr/bigtop-deploy/puppet/modules/trino'
    sudo bash -c "sed -i '/-Xlog/d' ${PRESTO_PUPPET_DIR}/templates/jvm.config"
  ```
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.
+ Amazon EMR 릴리스 5.36.0 및 6.6.0\$16.9.0까지는 Log4j2 속성의 잘못된 파일 이름 패턴 구성으로 인해 `SecretAgent` 및 `RecordServer` 서비스 구성 요소에 로그 데이터가 손실될 수 있습니다. 잘못된 구성으로 인해 구성 요소에서 하루에 하나의 로그 파일만 생성합니다. 로테이션 전략이 수행되면 예상대로 새 로그 파일을 생성하는 대신 기존 파일을 덮어씁니다. 해결 방법으로 부트스트랩 작업을 사용하여 매시간 로그 파일을 생성하고 파일 이름에 자동 증가 정수를 추가하여 교체를 처리합니다.

  Amazon EMR 6.6.0\$16.9.0 릴리스의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Amazon EMR 5.36.0의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## 6.6.0 구성 요소 버전
<a name="emr-660-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.5.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.20.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.50.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.14.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.14.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-6 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.4-amzn-2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.4-amzn-2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.4-amzn-2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.4-amzn-2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.4-amzn-2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hbase-operator-tools | 2.4.4-amzn-2 | Apache HBase 클러스터용 복구 도구. | 
| hcatalog-client | 3.1.2-amzn-7 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-7 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-7 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-7 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-7 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-7 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-7 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.10.1-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.10.1-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.10.1-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.10.1-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 0.13.1 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 11.0.194 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-connectors | 5.1.2 | Spark-3용 Apache Phoenix 커넥터 | 
| phoenix-query-server | 5.1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.267-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.267-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.267-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 367-amzn-0 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 367-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 367-amzn-0 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.2.0-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.2.0-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.2.0-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.2.0-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 22.02.0-amzn-0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.7 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.7 | ZooKeeper 명령줄 클라이언트. | 

## 6.6.0 구성 분류
<a name="emr-660-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.6.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-iceberg | Trino iceberg.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 6.5.0
<a name="emr-650-release"></a>

## 6.5.0 애플리케이션 버전
<a name="emr-650-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://iceberg.apache.org/](https://iceberg.apache.org/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.5.0 | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.31 | 1.12.31 | 1.11.977 | 1.11.977 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.0 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-1 | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 
| HCatalog | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hadoop | 3.2.1-amzn-5 | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 
| Hive | 3.1.2-amzn-6 | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 
| Hudi | 0.9.0-amzn-1 | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg | 0.12.0 |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 5.1.2 | 5.1.2 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 3.1.2-amzn-1 | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 360 | 359 | 350 | 350 | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.5.7 | 3.5.7 | 3.4.14 | 3.4.14 | 

## 6.5.0 릴리스 정보
<a name="emr-650-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.5.0에 대한 정보가 포함됩니다. 변경 사항은 6.4.0에 관련됩니다.

최초 릴리스 날짜: 2022년 1월 20일

릴리스 날짜: 2022년 3월 21일

**새로운 기능**
+ **[Managed Scaling] Spark 셔플 데이터 Managed Scaling 최적화** - Amazon EMR 버전 5.34.0 이상 및 EMR 버전 6.4.0 이상에서 Managed Scaling은 이제 Spark 셔플 데이터(Spark가 특정 작업을 수행하기 위해 파티션에 재분배하는 데이터)를 인식합니다. 셔플 작업에 대한 자세한 내용은 [Spark 프로그래밍 안내서](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations) 및 *Amazon EMR 관리 안내서*에서 [Amazon EMR에서 EMR Managed Scaling 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html)을 참조하세요.
+ Amazon EMR 5.32.0 및 6.5.0부터 Apache Spark의 동적 실행기 크기 조정이 기본적으로 활성화됩니다. 이 기능을 켜거나 끄기 위해 `spark.yarn.heterogeneousExecutors.enabled` 구성 파라미터를 사용할 수 있습니다.
+ 대규모 분석 데이터 세트를 위한 Apache Iceberg 오픈 테이블 형식에 대한 지원.
+ ranger-trino-plugin 2.0.1-amzn-1 지원
+ toree 0.5.0에 대한 지원

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 6.5 릴리스 버전은 이제 Apache Iceberg 0.12.0을 지원하며, Apache Spark용 EMR 런타임, Presto용 Amazon EMR 런타임, Apache Hive용 Amazon EMR 런타임을 통해 런타임을 개선했습니다.
+ [Apache Iceberg](https://iceberg.apache.org/)는 Amazon S3에서 대형 데이터 세트를 위한 오픈 테이블 형식이며, 대형 테이블, 원자성 커밋, 동시 쓰기, SQL 호환 테이블 진화 등에서 빠른 쿼리 성능을 제공합니다. EMR 6.5에서 Iceberg 테이블 형식으로 Apache Spark 3.1.2를 사용할 수 있습니다.
+ Apache Hudi 0.9에서는 Spark SQL DDL 및 DML 지원을 추가했습니다. 이를 통해 SQL 문만 사용하여 Hudi 테이블을 생성하고 업서트할 수 있습니다. Apache Hudi 0.9에는 쿼리 측 및 작성기 측 성능 개선도 포함되어 있습니다.
+ Apache Hive용 Amazon EMR 런타임은 준비 작업 중에 이름 바꾸기 작업을 제거하여 Amazon S3의 Apache Hive 성능을 향상시키고, 테이블 복구에 사용되는 메타스토어 검사(MSCK) 명령의 성능을 개선합니다.

**알려진 문제**
+ Amazon EMR 릴리스 6.5.0, 6.6.0 또는 6.7.0에서 Apache Spark 쉘을 통해 Apache Phoenix 테이블을 읽으면 Amazon EMR에서 잘못된 `Hbase.compat.version`을 사용하므로 `NoSuchMethodError`가 발생합니다. Amazon EMR 릴리스 6.8.0에서는 이 문제가 수정되었습니다.
+ 고가용성(HA)의 Hbase 번들 클러스터에서 기본 볼륨 크기 및 인스턴스 유형으로 프로비저닝하지 못합니다. 이 문제의 해결 방법은 루트 볼륨 크기를 늘리는 것입니다.
+ Apache Oozie에서 Spark 작업을 사용하려면 Oozie `workflow.xml` 파일에 다음 구성을 추가해야 합니다. 그렇지 않으면 Oozie가 시작하는 Spark 실행기의 클래스 경로에서 Hadoop 및 EMRFS와 같은 여러 중요한 라이브러리가 누락됩니다.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 6.5.0 구성 요소 버전
<a name="emr-650-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.4.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.19.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.48.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.14.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.14.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-5 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.4-amzn-1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.4-amzn-1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.4-amzn-1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.4-amzn-1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.4-amzn-1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-6 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-6 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-6 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-6 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-6 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-6 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-6 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.9.0-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.9.0-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.9.0-amzn-1 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.9.0-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.9.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| iceberg | 0.12.0 | Apache Iceberg는 방대한 분석 데이터 세트를 위한 오픈 테이블 형식입니다. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.261-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.261-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.261-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 360 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 360 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 360 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.1.2-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.1.2-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.1.2-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.1.2-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 0.4.1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.7 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.7 | ZooKeeper 명령줄 클라이언트. | 

## 6.5.0 구성 분류
<a name="emr-650-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.5.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| iceberg-defaults | Iceberg iceberg-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 6.4.0
<a name="emr-640-release"></a>

## 6.4.0 애플리케이션 버전
<a name="emr-640-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://trino.io/](https://trino.io/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.31 | 1.11.977 | 1.11.977 | 1.11.880 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.4.4-amzn-0 | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-4 | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 
| Hive | 3.1.2-amzn-5 | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 
| Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 5.1.2 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.254.1-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 
| Spark | 3.1.2-amzn-0 | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 359 | 350 | 350 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 
| ZooKeeper | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.4.0 릴리스 정보
<a name="emr-640-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.4.0에 대한 정보가 포함됩니다. 변경 사항은 6.3.0에 관련됩니다.

최초 릴리스 날짜: 2021년 9월 20일

릴리스 날짜: 2022년 3월 21일

**지원되는 애플리케이션**
+ AWS SDK for Java 버전 1.12.31
+ CloudWatch Sink 버전 2.2.0
+ DynamoDB 커넥터 버전 4.16.0
+ EMRFS 버전 2.47.0
+ Amazon EMR Goodies 버전 3.2.0
+ Amazon EMR Kinesis 커넥터 버전 3.5.0
+ Amazon EMR Record Server 버전 2.1.0
+ Amazon EMR 스크립트 버전 2.5.0
+ Flink 버전 1.13.1
+ Ganglia 버전 3.7.2
+ AWS Glue Hive 메타스토어 클라이언트 버전 3.3.0
+ Hadoop 버전 3.2.1-amzn-4
+ HBase 버전 2.4.4-amzn-0
+ HBase-operator-tools 1.1.0
+ HCatalog 버전 3.1.2-amzn-5
+ Hive 버전 3.1.2-amzn-5
+ Hudi 버전 0.8.0-amzn-0
+ Hue 버전 4.9.0
+ Java JDK 버전 Corretto-8.302.08.1(빌드 1.8.0\$1302-b08)
+ JupyterHub 버전 1.4.1
+ Livy 버전 0.7.1-incubating
+ MXNet 버전 1.8.0
+ Oozie 버전 5.2.1
+ Phoenix 버전 5.1.2
+ Pig 버전 0.17.0
+ Presto 버전 0.254.1-amzn-0
+ Trino 버전 359
+ Apache Ranger KMS(멀티 마스터 투명 암호화) 버전 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.2.0
+ SageMaker Spark SDK 버전 1.4.1
+ Scala 버전 2.12.10(OpenJDK 64비트 서버 VM, Java 1.8.0\$1282)
+ Spark 버전 3.1.2-amzn-0
+ spark-rapids 0.4.1
+ Sqoop 버전 1.4.7
+ TensorFlow 버전 2.4.1
+ tez 버전 0.9.2
+ Zeppelin 버전 0.9.0
+ Zookeeper 버전 3.5.7
+ 커넥터 및 드라이버: DynamoDB 커넥터 4.16.0

**새로운 기능**
+ **[Managed Scaling] Spark 셔플 데이터 Managed Scaling 최적화** - Amazon EMR 버전 5.34.0 이상 및 EMR 버전 6.4.0 이상에서 Managed Scaling은 이제 Spark 셔플 데이터(Spark가 특정 작업을 수행하기 위해 파티션에 재분배하는 데이터)를 인식합니다. 셔플 작업에 대한 자세한 내용은 [Spark 프로그래밍 안내서](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations) 및 *Amazon EMR 관리 안내서*에서 [Amazon EMR에서 EMR Managed Scaling 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html)을 참조하세요.
+ Apache Ranger 지원 Amazon EMR 클러스터에서는 Apache Spark SQL을 사용하여 `INSERT INTO`, `INSERT OVERWRITE`, `ALTER TABLE`을 통해 Apache Hive 메타스토어 테이블에 데이터를 삽입하거나 업데이트할 수 있습니다. Spark SQL에서 ALTER TABLE을 사용하는 경우 파티션 위치는 테이블 위치의 하위 디렉터리여야 합니다. Amazon EMR은 현재 파티션 위치가 테이블 위치와 다른 파티션으로의 데이터 삽입을 지원하지 않습니다.
+ PrestoSQL은 [Trino로 이름이 바뀌었습니다](https://trino.io/blog/2020/12/27/announcing-trino.html).
+ Hive: LIMIT 절에 언급된 레코드 수를 가져오는 즉시 쿼리 실행을 중지함으로써 LIMIT 절을 사용하는 간단한 SELECT 쿼리의 실행이 가속화됩니다. 간단한 SELECT 쿼리는 GROUP BY 및 ORDER BY 절이 없는 쿼리 또는 reducer 스테이지가 없는 쿼리입니다. 예를 들어 `SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>`입니다.

**Hudi 동시성 제어**
+ Hudi는 이제 낙관적 동시성 제어(OCC)를 지원합니다. 이 기능을 UPSERT 및 INSERT와 같은 쓰기 작업과 함께 활용하면 여러 작성기에서 동일한 Hudi 테이블로 변경할 수 있습니다. 이는 파일 수준 OCC이므로 변경 사항이 충돌하지 않는 한 두 커밋(또는 작성기)이 동일한 테이블에 쓸 수 있습니다. 자세한 내용은 [Hudi concurrency control](https://hudi.apache.org/docs/concurrency_control/)을 참조하세요.
+ Amazon EMR 클러스터에는 Zookeeper가 설치되어 있고, 이를 OCC의 잠금 공급자로 활용할 수 있습니다. 이 기능을 더 쉽게 사용할 수 있도록 Amazon EMR 클러스터에는 다음 속성이 미리 구성되어 있습니다.

  ```
  hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider
  hoodie.write.lock.zookeeper.url=<EMR Zookeeper URL>
  hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port>
  hoodie.write.lock.zookeeper.base_path=/hudi
  ```

  OCC를 활성화하려면 Hudi 작업 옵션에서 다음 속성을 구성하거나 Amazon EMR 구성 API를 사용하여 클러스터 수준에서 다음 속성을 구성해야 합니다.

  ```
  hoodie.write.concurrency.mode=optimistic_concurrency_control
  hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write)
  hoodie.write.lock.zookeeper.lock_key=<Key to uniquely identify the Hudi table> (Table Name is a good option)
  ```

**Hudi 모니터링: Hudi 지표를 보고하기 위한 Amazon CloudWatch 통합**
+ Amazon EMR은 Amazon CloudWatch에 Hudi 지표를 게시하는 기능을 지원합니다. 다음과 같은 필수 구성을 설정하여 이 기능을 활성화합니다.

  ```
  hoodie.metrics.on=true
  hoodie.metrics.reporter.type=CLOUDWATCH
  ```
+ 변경할 수 있는 선택적 Hudi 구성은 다음과 같습니다.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-640-release.html)

**Amazon EMR Hudi 구성 지원 및 개선 사항**
+ 이제 고객은 EMR 구성 API 및 재구성 기능을 활용하여 클러스터 수준에서 Hudi 구성을 설정할 수 있습니다. Spark, Hive 등과 같은 다른 애플리케이션과 마찬가지로 /etc/hudi/conf/hudi-defaults.conf를 통해 새로운 파일 기반 구성 지원이 도입되었습니다. EMR은 사용자 환경을 개선하기 위해 몇 가지 기본값을 구성합니다.

  - `hoodie.datasource.hive_sync.jdbcurl `은 클러스터 Hive 서버 URL로 구성되며, 더 이상 지정하지 않아도 됩니다. 이전에 Amazon EMR 마스터 IP를 지정해야 했던 Spark 클러스터 모드에서 작업을 실행할 때 특히 유용합니다.

  - HBase 특정 구성으로, Hudi에서 HBase 인덱스를 사용하는 데 유용합니다.

  - Zookeeper 잠금 제공자 특정 구성으로, 동시성 제어에서 설명한 대로, 이를 통해 낙관적 동시성 제어(OCC)를 더 쉽게 사용할 수 있습니다.
+ 통과해야 하는 구성 수를 줄이고 가능한 경우 자동으로 추론할 수 있도록 추가 변경 사항이 도입되었습니다.

  - `partitionBy ` 키워드를 사용하여 파티션 열을 지정할 수 있습니다.

  - Hive Sync를 활성화하면 더 이상 `HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY`를 전달하지 않아도 됩니다. 이러한 값은 Hudi 테이블 이름 및 파티션 필드에서 추론할 수 있습니다.

  - `KEYGENERATOR_CLASS_OPT_KEY`는 반드시 전달하지 않아도 되며, `SimpleKeyGenerator` 및 `ComplexKeyGenerator`의 보다 간단한 사례에서 추론할 수 있습니다.

**Hudi Caveats**
+ Hudi는 Merge on Read(MoR) 및 부트스트랩 테이블에 대해 Hive에서 벡터화된 실행을 지원하지 않습니다. 예를 들어 `hive.vectorized.execution.enabled`가 true로 설정된 경우 Hudi 실시간 테이블의 `count(*)`에서 오류가 발생합니다. 해결 방법으로 `hive.vectorized.execution.enabled`를 `false`로 설정하여 벡터화된 읽기를 비활성화할 수 있습니다.
+ 다중 작성기 지원은 Hudi 부트스트랩 기능과 호환되지 않습니다.
+ Flink Streamer 및 Flink SQL은 이 릴리스의 실험 기능입니다. 이러한 기능은 프로덕션 배포에 사용하지 않는 것이 좋습니다.

**변경 사항, 향상된 기능 및 해결된 문제**

이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ 이전에는 다중 마스터 클러스터에서 리소스 관리자를 수동으로 다시 시작하면 Zookeeper와 같은 Amazon EMR 클러스터 내 대몬(daemon)이 Zookeeper znode 파일에서 이전에 해제되거나 손실된 노드를 모두 다시 로드했습니다. 이로 인해 특정 상황에서 기본 한도가 초과되었습니다. 이제 Amazon EMR은 Zookeeper 파일에서 1시간 넘게 경과된 해제되거나 손실된 노드 레코드를 제거하고 내부 한도를 늘렸습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ **Apache YARN 타임라인 서버 버전 1 및 1.5 성능 문제를 해결하도록 클러스터 구성**

  Apache YARN 타임라인 서버 버전 1 및 1.5는 매우 자주 사용되는 대규모 EMR 클러스터, 특히 Amazon EMR의 기본 설정인 `yarn.resourcemanager.system-metrics-publisher.enabled=true`에서 성능 문제를 일으킬 수 있습니다. 오픈 소스 YARN 타임라인 서버 v2는 YARN 타임라인 서버 확장성과 관련된 성능 문제를 해결했습니다.

  이 문제의 다른 해결 방법은 다음과 같습니다.
  + yarn-site.xml 파일에서 yarn.resourcemanager.system-metrics-publisher.enabled=false를 구성합니다.
  + 아래 설명에 따라 클러스터를 생성할 때 이 문제를 해결하는 수정 사항을 활성화합니다.

  다음 Amazon EMR 릴리스에는 이 YARN 타임라인 서버 성능 문제에 대한 수정 사항이 포함되어 있습니다.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

  위에 지정된 Amazon EMR 릴리스에서 수정 사항을 활성화하려면 [`aws emr create-cluster` 명령 파라미터](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html)(`--configurations file://./configurations.json`)를 사용하여 전달되는 구성 JSON 파일에서 이러한 속성을 `true`로 설정합니다. 또는 [재구성 콘솔 UI](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html)를 사용하여 수정 사항을 활성화할 수도 있습니다.

  configurations.json 파일 내용 예제:

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ WebHDFS 및 HttpFS 서버는 기본적으로 비활성화됩니다. Hadoop 구성(`dfs.webhdfs.enabled`)을 사용하여 WebHDFS를 다시 활성화할 수 있습니다. HttpFS 서버는 `sudo systemctl start hadoop-httpfs`를 사용하여 시작할 수 있습니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).
+ Hive: 마지막 작업에 HDFS의 스크래치 디렉터리를 사용할 수 있게 함으로써 쓰기 쿼리 성능이 개선되었습니다. 최종 작업의 임시 데이터는 Amazon S3 대신 HDFS에 기록되며, 데이터는 Amazon S3 디바이스 사이가 아닌 HDFS에서 최종 테이블 위치(Amazon S3)로 이동되므로 성능이 향상됩니다.
+ Hive: Glue 메타스토어 파티션 정리를 통해 쿼리 컴파일 시간이 최대 2.5배 개선되었습니다.
+ 기본적으로 내장된 UDF를 Hive에서 Hive Metastore Server로 전달하면 Glue는 제한된 표현식 연산자만 지원하므로 내장된 UDF의 하위 세트만 Glue 메타스토어로 전달됩니다. `hive.glue.partition.pruning.client=true`를 설정하면 모든 파티션 정리가 클라이언트 측에서 수행됩니다. `hive.glue.partition.pruning.server=true`를 설정하면 모든 파티션 정리가 서버 측에서 수행됩니다.

**알려진 문제**
+ Apache Hadoop HttpFS 서버는 기본적으로 비활성화되어 있기 때문에 Amazon EMR 6.4.0에서는 Hue 쿼리가 작동하지 않습니다. Amazon EMR 6.4.0에서 Hue를 사용하려면 `sudo systemctl start hadoop-httpfs`를 사용하여 Amazon EMR 프라이머리 노드에서 HttpFS 서버를 수동으로 시작하거나 [Amazon EMR 단계를 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html)합니다.
+ Livy 사용자 위장과 함께 사용되는 Amazon EMR Notebooks 기능은 기본적으로 HttpFS 가 비활성화되었기 때문에 작동하지 않습니다. 이 경우 EMR 노트북은 Livy 가장 기능이 활성화된 클러스터에 연결할 수 없습니다. 해결 방법은 클러스터에 EMR 노트북을 연결하기 전에 `sudo systemctl start hadoop-httpfs`를 사용하여 HttpFS 서버를 시작하는 것입니다.
+ Amazon EMR 버전 6.4.0에서 Phoenix는 Phoenix 커넥터 구성 요소를 지원하지 않습니다.
+ Apache Oozie에서 Spark 작업을 사용하려면 Oozie `workflow.xml` 파일에 다음 구성을 추가해야 합니다. 그렇지 않으면 Oozie가 시작하는 Spark 실행기의 클래스 경로에서 Hadoop 및 EMRFS와 같은 여러 중요한 라이브러리가 누락됩니다.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 6.4.0 구성 요소 버전
<a name="emr-640-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.3.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.18.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.47.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.13.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.13.1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.4.4-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.4.4-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.4.4-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.4.4-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.4.4-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-5 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-5 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-5 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-5 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-5 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-5 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-5 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.8.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.8.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-trino | 0.8.0-amzn-0 | Hudi와 함께 Trnio를 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.8.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.9.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.254.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.254.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.254.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| trino-coordinator | 359 | trino-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| trino-worker | 359 | 여러 쿼리를 실행하는 서비스. | 
| trino-client | 359 | Trino 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Trino 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.1.2-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.1.2-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.1.2-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.1.2-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 0.4.1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.5.7 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.5.7 | ZooKeeper 명령줄 클라이언트. | 

## 6.4.0 구성 분류
<a name="emr-640-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.4.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-log | Trino log.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-config | Trino config.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-password-authenticator | Trino password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-env | Trino trino-env.sh 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-node | Trino node.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-blackhole | Trino blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-cassandra | Trino cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-hive | Trino hive.properties 파일에서 값을 변경합니다. | Restarts Trino-Server (for Trino) | 
| trino-connector-jmx | Trino jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-kafka | Trino kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-localfile | Trino localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-memory | Trino memory.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mongodb | Trino mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-mysql | Trino mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-postgresql | Trino postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-raptor | Trino raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redis | Trino redis.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-redshift | Trino redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpch | Trino tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| trino-connector-tpcds | Trino tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 6.3.1
<a name="emr-631-release"></a>

## 6.3.1 애플리케이션 버전
<a name="emr-631-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.977 | 1.11.977 | 1.11.880 | 1.11.880 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hadoop | 3.2.1-amzn-3.1 | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 
| Hudi | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 
| Spark | 3.1.1-amzn-0.1 | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 350 | 343 | 343 | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.3.1 릴리스 정보
<a name="emr-631-relnotes"></a>

이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).

**알려진 문제**
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 6.3.1 구성 요소 버전
<a name="emr-631-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.2.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.18.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.46.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.12.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.12.1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-3.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-3.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-3.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-3.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-3.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.2.6-amzn-1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.2.6-amzn-1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.2.6-amzn-1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.2.6-amzn-1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.2.6-amzn-1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-4 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-4 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-4 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-4 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.7.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.7.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-prestosql | 0.7.0-amzn-0 | Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.7.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.9.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.2.2 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.7.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.245.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.245.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.245.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| prestosql-coordinator | 350 | prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| prestosql-worker | 350 | 여러 쿼리를 실행하는 서비스. | 
| prestosql-client | 350 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.1.1-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.1.1-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.1.1-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.1.1-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 0.4.1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 6.3.1 구성 분류
<a name="emr-631-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.3.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | PrestoSQL node.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-blackhole | PrestoSQL blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-cassandra | PrestoSQL cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-hive | PrestoSQL hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | PrestoSQL jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-kafka | PrestoSQL kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-localfile | PrestoSQL localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-memory | PrestoSQL memory.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-mongodb | PrestoSQL mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-mysql | PrestoSQL mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-postgresql | PrestoSQL postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-raptor | PrestoSQL raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-redis | PrestoSQL redis.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-redshift | PrestoSQL redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-tpch | PrestoSQL tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-tpcds | PrestoSQL tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 6.3.0
<a name="emr-630-release"></a>

## 6.3.0 애플리케이션 버전
<a name="emr-630-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.3.0 | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.977 | 1.11.880 | 1.11.880 | 1.11.828 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-1 | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-3 | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 
| Hive | 3.1.2-amzn-4 | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 
| Hudi | 0.7.0-amzn-0 | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 
| Spark | 3.1.1-amzn-0 | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 350 | 343 | 343 | 338 | 
| Zeppelin | 0.9.0 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.3.0 릴리스 정보
<a name="emr-630-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.3.0에 대한 정보가 포함됩니다. 변경 사항은 6.2.0에 관련됩니다.

최초 릴리스 날짜: 2021년 5월 12일

최종 업데이트 날짜: 2021년 8월 9일

**지원되는 애플리케이션**
+ AWS SDK for Java 버전 1.11.977
+ CloudWatch Sink 버전 2.1.0
+ DynamoDB 커넥터 버전 4.16.0
+ EMRFS 버전 2.46.0
+ Amazon EMR Goodies 버전 3.2.0
+ Amazon EMR Kinesis 커넥터 버전 3.5.0
+ Amazon EMR Record Server 버전 2.0.0
+ Amazon EMR 스크립트 버전 2.5.0
+ Flink 버전 1.12.1
+ Ganglia 버전 3.7.2
+ AWS Glue Hive 메타스토어 클라이언트 버전 3.2.0
+ Hadoop 버전 3.2.1-amzn-3
+ HBase 버전 2.2.6-amzn-1
+ HBase-operator-tools 1.0.0
+ HCatalog 버전 3.1.2-amzn-0
+ Hive 버전 3.1.2-amzn-4
+ Hudi 버전 0.7.0-amzn-0
+ Hue 버전 4.9.0
+ Java JDK 버전 Corretto-8.282.08.1(빌드 1.8.0\$1282-b08)
+ JupyterHub 버전 1.2.0
+ Livy 버전 0.7.0-incubating
+ MXNet 버전 1.7.0
+ Oozie 버전 5.2.1
+ Phoenix 버전 5.0.0
+ Pig 버전 0.17.0
+ Presto 버전 0.245.1-amzn-0
+ PrestoSQL 버전 350
+ Apache Ranger KMS(멀티 마스터 투명 암호화) 버전 2.0.0
+ ranger-plugins 2.0.1-amzn-0
+ ranger-s3-plugin 1.1.0
+ SageMaker Spark SDK 버전 1.4.1
+ Scala 버전 2.12.10(OpenJDK 64비트 서버 VM, Java 1.8.0\$1282)
+ Spark version 3.1.1-amzn-0
+ spark-rapids 0.4.1
+ Sqoop 버전 1.4.7
+ TensorFlow 버전 2.4.1
+ tez 버전 0.9.2
+ Zeppelin 버전 0.9.0
+ Zookeeper 버전 3.4.14
+ 커넥터 및 드라이버: DynamoDB 커넥터 4.16.0

**새로운 기능**
+ Amazon EMR은 공유 데이터 레이크에 대한 액세스를 쉽게 관리할 수 있는 Amazon S3의 기능인 Amazon S3 액세스 포인트를 지원합니다. Amazon S3 액세스 포인트 별칭을 사용하면 Amazon EMR에서 대규모 데이터 액세스를 간소화할 수 있습니다. Amazon EMR을 사용할 수 있는 모든 리전에서 추가 비용 없이 모든 버전의 Amazon EMR에서 Amazon S3 액세스 포인트를 사용할 수 있습니다. AWS Amazon S3 액세스 포인트 및 액세스 포인트 별칭에 대한 자세한 내용은 *Amazon S3 사용 설명서*에서 [액세스 포인트에 버킷 스타일 별칭 사용](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html)을 참조하세요.
+ 새 `DescribeReleaseLabel` 파라미터 및 `ListReleaseLabel` API 파라미터에서는 Amazon EMR 릴리스 레이블 세부 정보를 제공합니다. API 요청이 실행되는 리전에서 사용 가능한 릴리스를 프로그래밍 방식으로 나열하고 특정 Amazon EMR 릴리스 레이블에서 사용할 수 있는 애플리케이션을 나열할 수 있습니다. 릴리스 레이블 파라미터는 Spark와 같은 특정 애플리케이션을 지원하는 Amazon EMR 릴리스도 나열합니다. 이 정보는 Amazon EMR 클러스터를 프로그래밍 방식으로 시작하는 데 사용할 수 있습니다. 예를 들어, `ListReleaseLabel` 결과에서 최신 릴리스 버전을 사용하여 클러스터를 시작할 수 있습니다. 자세한 내용은 *Amazon EMR API 참조*에서 [DescribeReleaseLabel](https://docs.aws.amazon.com/emr/latest/APIReference/API_DescribeReleaseLabel.html) 및 [ListReleaseLabels](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html)를 참조하세요.
+ Amazon EMR 6.3.0에서는 Apache Ranger와 기본적으로 통합되는 클러스터를 시작할 수 있습니다. Apache Ranger는 Hadoop 플랫폼 전반에서 포괄적인 데이터 보안을 지원, 모니터링 및 관리할 수 있는 오픈 소스 프레임워크입니다. 자세한 내용은 [Apache Ranger](https://ranger.apache.org/)를 참조하세요. 기본 통합을 통해 자체 Apache Ranger를 이용해 Amazon EMR에서 세분화된 데이터 액세스 제어를 적용할 수 있습니다. Amazon EMR 관리 안내서에서 [Amazon EMR과 Apache Ranger 통합](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html)을 참조하세요.
+ 범위가 지정된 관리형 정책: AWS 모범 사례에 맞게 Amazon EMR은 더 이상 사용되지 않을 정책을 대체하기 위해 v2 EMR 범위 기본 관리형 정책을 도입했습니다. [Amazon EMR 관리형 정책](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)을 참조하세요.
+ 인스턴스 메타데이터 서비스(IMDS) V2 지원 상태: Amazon EMR 6.2 이상의 Amazon EMR 구성 요소는 모든 IMDS 직접 호출에 IMDSv2를 사용합니다. 애플리케이션 코드에서 IMDS를 직접 호출하는 경우, IMDSv1 및 IMDSv2를 모두 사용하거나, 추가 보안을 위해 IMDSv2만 사용하도록 IMDS를 구성할 수 있습니다. 이전 Amazon EMR 6.x 릴리스에서 IMDSv1을 비활성화하면 클러스터를 시작하지 못합니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ [Spark 3.1](https://issues.apache.org/jira/browse/SPARK-31325)에서는 Spark SQL UI 설명 모드 기본값이 `extended`에서 `formatted`로 변경되었습니다. Amazon EMR은 이를 다시 `extended`로 되돌려 Spark SQL UI에 논리적 계획 정보를 포함합니다. `spark.sql.ui.explainMode`를 `formatted`로 설정하여 이를 되돌릴 수 있습니다.
+ 다음 커밋은 Spark 마스터 브랜치에서 백포트되었습니다.

  - [[SPARK-34752]](https://issues.apache.org/jira/browse/SPARK-34752)[빌드] Jetty를 9.4.37로 변경하여 CVE-2020-27223을 해결합니다.

  - [[SPARK-34534]](https://issues.apache.org/jira/browse/SPARK-34534) FetchShuffleBlocks를 사용하여 블록을 가져올 때 blockIds 순서를 수정합니다.

  - [[SPARK-34681]](https://issues.apache.org/jira/browse/SPARK-34681) [SQL] 왼쪽을 같지 않음 조건으로 빌드할 때 전체 외부 셔플 해시 조인에 대한 버그를 수정했습니다.

  - [[SPARK-34497]](https://issues.apache.org/jira/browse/SPARK-34497) [SQL] 기본 제공 JDBC 연결 제공업체를 수정하여 JVM 보안 컨텍스트 변경 사항을 복원합니다.
+ Nvidia Spark Rapids 플러그인과의 상호 운용성을 개선하기 위해 적응형 쿼리 실행이 비활성화된 상태에서 Nvidia Spark RAPID를 사용할 때 동적 파티션 정리가 트리거되지 않는 문제를 해결하는 해결 방법을 추가했습니다. [RAPIDS issue \$11378](https://github.com/NVIDIA/spark-rapids/issues/1378) 및 [RAPIDS issue \$1\$11386](https://github.com/NVIDIA/spark-rapids/issues/1386)을 참조하세요. 새 구성 `spark.sql.optimizer.dynamicPartitionPruning.enforceBroadcastReuse`에 대한 자세한 내용은 [내용은 RAPIDS issue \$1\$11386](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html#emr-spark-performance-dynamic)을 참조하세요.
+ 오픈 소스 Spark 3.1의 파일 출력 커미터 기본 알고리즘이 v2 알고리즘에서 v1 알고리즘으로 변경되었습니다. 자세한 내용은 이 [Amazon EMR optimizing Spark performance - dynamic partition pruning](https://issues.apache.org/jira/browse/SPARK-33019)을 참조하세요.
+ Amazon EMR은 성능 저하를 방지하기 위해 이전 Amazon EMR 6.x 릴리스에서 사용된 기본값인 v2 알고리즘으로 되돌렸습니다. 오픈 소스 Spark 3.1 동작을 복원하려면 `spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version`을 `1`로 설정합니다. 파일 출력 커밋 알고리즘 v2의 작업 커밋이 원자성 작업이 아니므로 오픈 소스 Spark에서 이와 같이 변경됩니다. 이로 인해 일부 경우에 출력 데이터 수정 문제가 발생할 수 있습니다. 하지만 알고리즘 v1의 작업 커밋도 원자성 작업이 아닙니다. 일부 시나리오에서는 이름을 바꾸기 전에 작업 커밋에 수행된 삭제가 포함됩니다. 이로 인해 자동 데이터 수정 문제가 발생할 수 있습니다.
+ 이전 Amazon EMR 릴리스에서 Managed Scaling 문제를 수정하고 애플리케이션 장애 비율을 크게 줄일 수 있도록 개선했습니다.
+ 각 새 클러스터에 AWS Java SDK 번들을 설치했습니다. 개별 구성 요소 jar 대신 모든 서비스 SDK와 해당 종속 항목을 포함하는 단일 jar입니다. 자세한 내용은 [Java SDK Bundled Dependency](https://aws.amazon.com/blogs/developer/java-sdk-bundle/)를 참조하세요.

**알려진 문제**
+ Amazon EMR 6.3.0 및 6.2.0 프라이빗 서브넷 클러스터의 경우 Ganglia 웹 UI에 액세스할 수 없습니다. '액세스 거부됨(403)' 오류가 발생합니다. Spark, Hue, JupyterHub, Zeppelin, Livy, Tez와 같은 다른 웹 UI는 정상적으로 작동합니다. 퍼블릭 서브넷 클러스터에서 Ganglia 웹 UI 액세스도 정상적으로 작동합니다. 이 문제를 해결하려면 `sudo systemctl restart httpd`를 사용하여 프라이머리 노드에서 httpd 서비스를 다시 시작합니다. 이 문제는 Amazon EMR 6.4.0에서 수정되었습니다.
+  AWS Glue 데이터 카탈로그가 활성화되면 Spark를 사용하여 null 문자열 위치 URI가 있는 AWS Glue DB에 액세스하지 못할 수 있습니다. 이 문제는 이전 Amazon EMR 릴리스에서 발생하지만, SPARK-31709(https://issues.apache.org/jira/browse/SPARK-31709)에서는 더 많은 사례에 이를 적용합니다. 예를 들어 위치 URI가 null 문자열인 기본 AWS Glue DB 내에 테이블을 생성할 때는 "빈 문자열에서 경로를 생성할 수 없습니다."라는 메시지와 함께 `spark.sql("CREATE TABLE mytest (key string) location '/table_path';")` 실패합니다. 이 문제를 해결하려면 AWS Glue 데이터베이스의 위치 URI를 수동으로 설정한 다음 Spark를 사용하여 이러한 데이터베이스 내에 테이블을 생성합니다.
+ Amazon EMR 6.3.0에서 PrestoSQL은 버전 343에서 버전 350으로 업그레이드되었습니다. 이 버전 변경과 관련된 오픈 소스의 두 가지 보안 관련 변경 사항이 있습니다. 테이블, 스키마 또는 세션 속성 규칙이 정의되지 않은 경우로 파일 기반 카탈로그 액세스 제어가 `deny`에서 `allow`로 변경됩니다. 또한 파일 기반 시스템 액세스 제어는 카탈로그 규칙이 정의되지 않은 파일을 지원하도록 변경되었습니다. 이 경우 카탈로그에 대한 모든 액세스가 허용됩니다.

  자세한 내용은 [Release 344 (9 Oct 2020)](https://trino.io/docs/current/release/release-344.html#security)를 참조하세요.
+ Hadoop 사용자 디렉터리(/home/hadoop)는 모든 사용자가 읽을 수 있습니다. Hive 같은 프레임워크에서 읽기 액세스를 허용하는 Unix 755(drwxr-xr-x) 디렉터리 권한을 보유합니다. /home/hadoop 및 하위 디렉터리에 파일을 넣을 수 있지만 중요한 정보를 보호하려면 해당 디렉터리의 권한을 알고 있어야 합니다.
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**중요**  
Amazon Linux 또는 Amazon Linux 2 Amazon Machine Image(AMI)를 실행하는 EMR 클러스터는 기본 Amazon Linux 동작을 사용하며, 재부팅이 필요한 중요한 핵심 커널 업데이트를 자동으로 다운로드하여 설치하지는 않습니다. 이는 기본 Amazon Linux AMI를 실행하는 다른 Amazon EC2 인스턴스와 동일한 동작입니다. Amazon EMR 릴리스가 출시된 후 재부팅이 필요한 새로운 Amazon Linux 소프트웨어 업데이트(예: 커널, NVIDIA, CUDA 업데이트)를 사용할 수 있게 되면 기본 AMI를 실행하는 EMR 클러스터 인스턴스는 해당 업데이트를 자동으로 다운로드하여 설치하지 않습니다. 커널 업데이트를 받으려면 [최신 Amazon Linux AMI를 사용](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html)하도록 [Amazon EMR AMI를 사용자 지정](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)할 수 있습니다.
+ Apache Oozie에서 Spark 작업을 사용하려면 Oozie `workflow.xml` 파일에 다음 구성을 추가해야 합니다. 그렇지 않으면 Oozie가 시작하는 Spark 실행기의 클래스 경로에서 Hadoop 및 EMRFS와 같은 여러 중요한 라이브러리가 누락됩니다.

  ```
  <spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
  ```
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 6.3.0 구성 요소 버전
<a name="emr-630-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.2.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.18.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.46.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.12.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.12.1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-3 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.2.6-amzn-1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.2.6-amzn-1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.2.6-amzn-1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.2.6-amzn-1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.2.6-amzn-1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-4 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-4 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-4 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-4 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-4 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.7.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.7.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-prestosql | 0.7.0-amzn-0 | Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.7.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.9.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.2.2 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.7.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.245.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.245.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.245.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| prestosql-coordinator | 350 | prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| prestosql-worker | 350 | 여러 쿼리를 실행하는 서비스. | 
| prestosql-client | 350 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.1.1-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.1.1-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.1.1-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.1.1-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 0.4.1 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 6.3.0 구성 분류
<a name="emr-630-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.3.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | PrestoSQL node.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-blackhole | PrestoSQL blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-cassandra | PrestoSQL cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-hive | PrestoSQL hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | PrestoSQL jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-kafka | PrestoSQL kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-localfile | PrestoSQL localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-memory | PrestoSQL memory.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-mongodb | PrestoSQL mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-mysql | PrestoSQL mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-postgresql | PrestoSQL postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-raptor | PrestoSQL raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-redis | PrestoSQL redis.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-redshift | PrestoSQL redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-tpch | PrestoSQL tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-tpcds | PrestoSQL tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie and HiveServer2. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 6.2.1
<a name="emr-621-release"></a>

## 6.2.1 애플리케이션 버전
<a name="emr-621-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.2.1 | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.880 | 1.11.880 | 1.11.828 | 1.11.828 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hadoop | 3.2.1-amzn-2.1 | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 
| Hudi | 0.6.0-amzn-1 | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-1 | 0.238.3-amzn-1 | 0.232 | 0.232 | 
| Spark | 3.0.1-amzn-0.1 | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 343 | 338 | 338 | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.2.1 릴리스 정보
<a name="emr-621-relnotes"></a>

이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).

**알려진 문제**
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 6.2.1 구성 요소 버전
<a name="emr-621-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.0.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.16.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.0.0 | EMR S3Select 커넥터 | 
| emrfs | 2.44.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.11.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.11.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-2.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-2.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-2.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-2.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-2.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.2.6-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.2.6-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.2.6-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.2.6-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.2.6-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-3 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-3 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-3 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-3 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-3 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-3 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.6.0-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.6.0-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-prestosql | 0.6.0-amzn-1 | Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.6.0-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.8.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.7.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.238.3-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.238.3-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.238.3-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| prestosql-coordinator | 343 | prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| prestosql-worker | 343 | 여러 쿼리를 실행하는 서비스. | 
| prestosql-client | 343 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.0.1-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.0.1-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.0.1-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.0.1-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 0.2.0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.3.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0-preview1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 6.2.1 구성 분류
<a name="emr-621-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.2.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Not available. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Not available. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | PrestoSQL node.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-blackhole | PrestoSQL blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-cassandra | PrestoSQL cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-hive | PrestoSQL hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | PrestoSQL jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-kafka | PrestoSQL kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-localfile | PrestoSQL localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-memory | PrestoSQL memory.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-mongodb | PrestoSQL mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-mysql | PrestoSQL mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-postgresql | PrestoSQL postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-raptor | PrestoSQL raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-redis | PrestoSQL redis.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-redshift | PrestoSQL redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-tpch | PrestoSQL tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-tpcds | PrestoSQL tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 6.2.0
<a name="emr-620-release"></a>

## 6.2.0 애플리케이션 버전
<a name="emr-620-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.880 | 1.11.828 | 1.11.828 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-2 | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 
| Hive | 3.1.2-amzn-3 | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 
| Hudi | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 |  -  | 
| Presto | 0.238.3-amzn-1 | 0.232 | 0.232 | 0.230 | 
| Spark | 3.0.1-amzn-0 | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 |  -  | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 343 | 338 | 338 |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.2.0 릴리스 정보
<a name="emr-620-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.2.0에 대한 정보가 포함됩니다. 변경 사항은 6.1.0에 관련됩니다.

최초 릴리스 날짜: 2020년 12월 9일

최종 업데이트 날짜: 2021년 10월 4일

**지원되는 애플리케이션**
+ AWS SDK for Java 버전 1.11.828
+ emr-record-server 버전 1.7.0
+ Flink 버전 1.11.2
+ Ganglia 버전 3.7.2
+ Hadoop 버전 3.2.1-amzn-1
+ HBase 버전 2.2.6-amzn-0
+ HBase-operator-tools 1.0.0
+ HCatalog 버전 3.1.2-amzn-0
+ Hive 버전 3.1.2-amzn-3
+ Hudi 버전 0.6.0-amzn-1
+ Hue 버전 4.8.0
+ JupyterHub 버전 1.1.0
+ Livy 버전 0.7.0
+ MXNet 버전 1.7.0
+ Oozie 버전 5.2.0
+ Phoenix 버전 5.0.0
+ Pig 버전 0.17.0
+ Presto 버전 0.238.3-amzn-1
+ PrestoSQL 버전 343
+ Spark 버전 3.0.1-amzn-0
+ spark-rapids 0.2.0
+ TensorFlow 버전 2.3.1
+ Zeppelin 버전 0.9.0-preview1
+ Zookeeper 버전 3.4.14
+ 커넥터 및 드라이버: DynamoDB 커넥터 4.16.0

**새로운 기능**
+ HBase: 커밋 단계에서 이름 바꾸기를 제거하고 지속적 HFile 추적을 추가했습니다. *Amazon EMR 릴리스 안내서*에서 [지속적 HFile 추적](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-hfile-tracking)을 참조하세요.
+ HBase: [Create a config that forces to cache blocks on compaction](https://issues.apache.org/jira/browse/HBASE-23066)을 백포트했습니다.
+ PrestoDB: 동적 파티션 정리 기능이 개선되었습니다. 규칙 기반 조인 재정렬은 파티셔닝되지 않은 데이터에서 작동합니다.
+ 범위 관리형 정책: AWS 모범 사례에 맞게 Amazon EMR은 더 이상 사용되지 않을 정책을 대체하기 위해 v2 EMR 범위 기본 관리형 정책을 도입했습니다. [Amazon EMR 관리형 정책](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)을 참조하세요.
+ 인스턴스 메타데이터 서비스(IMDS) V2 지원 상태: Amazon EMR 6.2 이상의 Amazon EMR 구성 요소는 모든 IMDS 직접 호출에 IMDSv2를 사용합니다. 애플리케이션 코드에서 IMDS를 직접 호출하는 경우, IMDSv1 및 IMDSv2를 모두 사용하거나, 추가 보안을 위해 IMDSv2만 사용하도록 IMDS를 구성할 수 있습니다. 이전 Amazon EMR 6.x 릴리스에서 IMDSv1을 비활성화하면 클러스터를 시작하지 못합니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ Spark: Spark 런타임의 성능이 개선되었습니다.

**알려진 문제**
+ Amazon EMR 6.2에서는 EMR 6.2.0의 /etc/cron.d/libinstance-controller-java 파일에 잘못된 권한이 설정되어 있습니다. 파일의 권한이 644(-rw-r--r--)여야 하는 경우 645(-rw-r--r-x)입니다. 따라서 Amazon EMR 버전 6.2는 인스턴스 상태 로그를 로깅하지 않으며 /emr/instance-logs 디렉터리는 비어 있습니다. 이 문제는 Amazon EMR 6.3.0 이상에서 수정되었습니다.

  이 문제를 해결하려면 클러스터 시작 시 다음 스크립트를 부트스트랩 작업으로 실행합니다.

  ```
  #!/bin/bash
  sudo chmod 644 /etc/cron.d/libinstance-controller-java
  ```
+ Amazon EMR 6.2.0 및 6.3.0 프라이빗 서브넷 클러스터의 경우 Ganglia 웹 UI에 액세스할 수 없습니다. '액세스 거부됨(403)' 오류가 발생합니다. Spark, Hue, JupyterHub, Zeppelin, Livy, Tez와 같은 다른 웹 UI는 정상적으로 작동합니다. 퍼블릭 서브넷 클러스터에서 Ganglia 웹 UI 액세스도 정상적으로 작동합니다. 이 문제를 해결하려면 `sudo systemctl restart httpd`를 사용하여 프라이머리 노드에서 httpd 서비스를 다시 시작합니다. 이 문제는 Amazon EMR 6.4.0에서 수정되었습니다.
+ Amazon EMR 6.2.0에는 httpd에서 계속 실패하여 Ganglia를 사용할 수 없게 되는 문제가 있습니다. 'cannot connect to the server' 오류가 발생합니다. 이 문제를 포함하는 이미 실행 중인 클러스터를 수정하려면 클러스터 프라이머리 노드에 SSH로 연결하고 `/etc/httpd/conf/httpd.conf`에 있는 `httpd.conf` 파일에 `Listen 80` 줄을 추가합니다. 이 문제는 Amazon EMR 6.3.0에서 수정되었습니다.
+ 보안 구성을 사용하는 경우 EMR 6.2.0 클러스터에서 HTTPD에 오류가 발생합니다. 이로 인해 Ganglia 웹 애플리케이션 사용자 인터페이스를 사용할 수 없습니다. Ganglia 웹 애플리케이션 사용자 인터페이스에 액세스하려면 클러스터의 프라이머리 노드에 있는 `/etc/httpd/conf/httpd.conf` 파일에 `Listen 80`을 추가합니다. 클러스터 연결에 대한 자세한 내용은 [SSH를 사용하여 프라이머리 노드에 연결](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-connect-master-node-ssh.html)을 참조하세요.

  또한 보안 구성을 사용할 때 EMR Notebooks는 EMR 6.2.0 클러스터와의 연결을 설정하지 못합니다. 노트북은 커널을 나열하지 못하고 Spark 작업을 제출하지 못합니다. 대신 다른 Amazon EMR 버전에서 EMR Notebooks를 사용하는 것이 좋습니다.
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**중요**  
Amazon EMR 6.1.0 및 6.2.0에는 모든 Hudi 삽입, 업서트 및 삭제 작업에 큰 영향을 미칠 수 있는 성능 문제가 포함되어 있습니다. Amazon EMR 6.1.0 또는 6.2.0에서 Hudi를 사용하려는 경우 AWS 지원팀에 문의하여 패치된 Hudi RPM을 받아야 합니다.
+ 
**중요**  
Amazon Linux 또는 Amazon Linux 2 Amazon Machine Image(AMI)를 실행하는 EMR 클러스터는 기본 Amazon Linux 동작을 사용하며, 재부팅이 필요한 중요한 핵심 커널 업데이트를 자동으로 다운로드하여 설치하지는 않습니다. 이는 기본 Amazon Linux AMI를 실행하는 다른 Amazon EC2 인스턴스와 동일한 동작입니다. Amazon EMR 릴리스가 출시된 후 재부팅이 필요한 새로운 Amazon Linux 소프트웨어 업데이트(예: 커널, NVIDIA, CUDA 업데이트)를 사용할 수 있게 되면 기본 AMI를 실행하는 EMR 클러스터 인스턴스는 해당 업데이트를 자동으로 다운로드하여 설치하지 않습니다. 커널 업데이트를 받으려면 [최신 Amazon Linux AMI를 사용](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html)하도록 [Amazon EMR AMI를 사용자 지정](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)할 수 있습니다.
+ Amazon EMR 6.2.0 Maven 아티팩트는 게시되지 않습니다. 향후 Amazon EMR 릴리스와 함께 게시됩니다.
+ HBase 스토어파일 시스템 테이블을 사용한 지속적 HFile 추적은 HBase 리전 복제 기능을 지원하지 않습니다. HBase 리전 복제에 대한 자세한 내용은 [타임라인이 일치하는 고가용성 읽기](http://hbase.apache.org/book.html#arch.timelineconsistent.reads)를 참조하세요.
+ Amazon EMR 6.x 및 EMR 5.x Hive 버킷팅 버전 차이

  EMR 5.x는 OOS Apache Hive 2를 사용하지만, EMR 6.x는 OOS Apache Hive 3을 사용합니다. 오픈 소스 Hive2는 버킷팅 버전 1을 사용하는 반면, 오픈 소스 Hive3은 버킷팅 버전 2를 사용합니다. Hive 2(EMR 5.x) 및 Hive 3(EMR 6.x)의 버킷팅 버전 차이는 Hive 버킷팅 해싱 기능이 다르다는 것을 의미합니다. 아래 예제를 참조하십시오.

  다음 표는 각각 EMR 6.x 및 EMR 5.x에서 생성된 예제입니다.

  ```
  -- Using following LOCATION in EMR 6.x
  CREATE TABLE test_bucketing (id INT, desc STRING)
  PARTITIONED BY (day STRING)
  CLUSTERED BY(id) INTO 128 BUCKETS
  LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/';
  
  -- Using following LOCATION in EMR 5.x 
  LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';
  ```

  EMR 6.x 및 EMR 5.x 모두에 동일한 데이터를 삽입합니다.

  ```
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data');
  INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');
  ```

  S3 위치를 확인하는 경우 EMR 6.x(Hive 3) 및 EMR 5.x(Hive 2) 간에 해싱 함수가 다르기 때문에 버킷팅 파일 이름이 다르게 표시됩니다.

  ```
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/
  2020-10-21 20:35:16         13 000025_0
  2020-10-21 20:35:22         14 000121_0
  [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/
  2020-10-21 20:32:07         13 000066_0
  2020-10-21 20:32:51         14 000072_0
  ```

  또한 EMR 6.x에서 Hive CLI를 통해 다음 명령을 실행하여 버전 차이를 확인할 수도 있습니다. 이 경우 버킷팅 버전 2가 반환됩니다.

  ```
  hive> DESCRIBE FORMATTED test_bucketing;
  ...
  Table Parameters:
      bucketing_version       2
  ...
  ```
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 6.2.0 구성 요소 버전
<a name="emr-620-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.0.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.16.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.0.0 | EMR S3Select 커넥터 | 
| emrfs | 2.44.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.11.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.11.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-2 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.2.6-amzn-0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.2.6-amzn-0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.2.6-amzn-0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.2.6-amzn-0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.2.6-amzn-0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-3 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-3 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-3 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-3 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-3 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-3 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-3 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.6.0-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.6.0-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-prestosql | 0.6.0-amzn-1 | Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.6.0-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.8.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.7.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.238.3-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.238.3-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.238.3-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| prestosql-coordinator | 343 | prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| prestosql-worker | 343 | 여러 쿼리를 실행하는 서비스. | 
| prestosql-client | 343 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.0.1-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.0.1-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.0.1-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.0.1-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| spark-rapids | 0.2.0 | GPU로 Apache Spark를 가속화하는 Nvidia Spark RAPIDS 플러그인. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.3.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0-preview1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 6.2.0 구성 분류
<a name="emr-620-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-6.2.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Not available. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Not available. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | This classification should not be reconfigured. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | Restarts Hadoop HDFS ZKFC. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat server. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | Sets configurations to launch Hive LLAP service. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoDB) | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-node | PrestoSQL node.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-blackhole | PrestoSQL blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-cassandra | PrestoSQL cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-hive | PrestoSQL hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server (for PrestoSQL) | 
| prestosql-connector-jmx | PrestoSQL jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-kafka | PrestoSQL kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-localfile | PrestoSQL localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-memory | PrestoSQL memory.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-mongodb | PrestoSQL mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-mysql | PrestoSQL mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-postgresql | PrestoSQL postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-raptor | PrestoSQL raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-redis | PrestoSQL redis.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-redshift | PrestoSQL redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-tpch | PrestoSQL tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| prestosql-connector-tpcds | PrestoSQL tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restart Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 6.1.1
<a name="emr-611-release"></a>

## 6.1.1 애플리케이션 버전
<a name="emr-611-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.1.1 릴리스 정보
<a name="emr-611-relnotes"></a>

이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).

## 6.1.1 구성 요소 버전
<a name="emr-611-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.0.0 | EMR S3Select 커넥터 | 
| emrfs | 2.42.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.11.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-1.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-1.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-1.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-1.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-1.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.2.5 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.2.5 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.2.5 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.2.5 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.2.5 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.2-incubating-amzn-2 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.7.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.6.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.3.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.232 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.232 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.232 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| prestosql-coordinator | 338 | prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| prestosql-worker | 338 | 여러 쿼리를 실행하는 서비스. | 
| prestosql-client | 338 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.0.0-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.0.0-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.0.0-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.0.0-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.1.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0-preview1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 6.1.1 구성 분류
<a name="emr-611-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-6.1.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| prestosql-log | Presto log.properties 파일에서 값을 변경합니다. | 
| prestosql-config | Presto config.properties 파일에서 값을 변경합니다. | 
| prestosql-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| prestosql-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| prestosql-node | PrestoSQL node.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-blackhole | PrestoSQL blackhole.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-cassandra | PrestoSQL cassandra.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-hive | PrestoSQL hive.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-jmx | PrestoSQL jmx.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-kafka | PrestoSQL kafka.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-localfile | PrestoSQL localfile.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-memory | PrestoSQL memory.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-mongodb | PrestoSQL mongodb.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-mysql | PrestoSQL mysql.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-postgresql | PrestoSQL postgresql.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-raptor | PrestoSQL raptor.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-redis | PrestoSQL redis.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-redshift | PrestoSQL redshift.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-tpch | PrestoSQL tpch.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-tpcds | PrestoSQL tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 6.1.0
<a name="emr-610-release"></a>

## 6.1.0 애플리케이션 버전
<a name="emr-610-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://prestosql.io/](https://prestosql.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.1.0 릴리스 정보
<a name="emr-610-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.1.0에 대한 정보가 포함됩니다. 변경 사항은 6.0.0에 관련됩니다.

최초 릴리스 날짜: 2020년 9월 4일

최종 업데이트 날짜: 2020년 10월 15일

**지원되는 애플리케이션**
+ AWS SDK for Java 버전 1.11.828
+ Flink 버전 1.11.0
+ Ganglia 버전 3.7.2
+ Hadoop 버전 3.2.1-amzn-1
+ HBase 버전 2.2.5
+ HBase-operator-tools 1.0.0
+ HCatalog 버전 3.1.2-amzn-0
+ Hive 버전 3.1.2-amzn-1
+ Hudi 버전 0.5.2-incubating
+ Hue 버전 4.7.1
+ JupyterHub 버전 1.1.0
+ Livy 버전 0.7.0
+ MXNet 버전 1.6.0
+ Oozie 버전 5.2.0
+ Phoenix 버전 5.0.0
+ Presto 버전 0.232
+ PrestoSQL 버전 338
+ Spark 버전 3.0.0-amzn-0
+ TensorFlow 버전 2.1.0
+ Zeppelin 버전 0.9.0-preview1
+ Zookeeper 버전 3.4.14
+ 커넥터 및 드라이버: DynamoDB Connector 4.14.0

**새로운 기능**
+ ARM 인스턴스 유형은 Amazon EMR 버전 5.30.0 및 Amazon EMR 버전 6.1.0부터 지원됩니다.
+ M6g 범용 인스턴스 유형은 Amazon EMR 버전 6.1.0 및 5.30.0부터 지원됩니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [지원되는 인스턴스 유형](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html)을 참조하세요.
+ EC2 배치 그룹 기능은 여러 프라이머리 노드 클러스터에 대한 옵션으로 Amazon EMR 버전 5.23.0부터 지원됩니다. 현재 배치 그룹 기능에서는 프라이머리 노드 유형만 지원되며 해당 프라이머리 노드에는 `SPREAD` 전략이 적용됩니다. `SPREAD` 전략은 하드웨어 장애 발생 시 여러 프라이머리 노드의 손실을 방지하기 위해 별도의 기본 하드웨어에 작은 그룹의 인스턴스를 배치합니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [EMR과 EC2 배치 그룹 통합](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-placementgroup.html)을 참조하세요.
+ Managed Scaling - Amazon EMR 버전 6.1.0에서는 Amazon EMR Managed Scaling을 활성화하여 워크로드에 따라 클러스터에서 인스턴스 또는 유닛 수를 자동으로 늘리거나 줄일 수 있습니다. Amazon EMR은 클러스터 지표를 지속적으로 평가하여 비용과 속도 측면에서 클러스터를 최적화하는 조정 결정을 내립니다. Amazon EMR 버전 5.30.0 이상(6.0.0 제외)에서도 Managed Scaling을 사용할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [클러스터 리소스 조정](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html)을 참조하세요.
+ PrestoSQL 버전 338은 EMR 6.1.0에서 지원됩니다. 자세한 내용은 [Presto](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html)를 참조하세요.
  + PrestoSQL은 EMR 6.1.0 이상 버전에서만 지원되며, EMR 6.0.0 또는 EMR 5.x에서 지원되지 않습니다.
  + 애플리케이션 이름(`Presto`)은 클러스터에 PrestoDB를 설치하는 데 계속 사용됩니다. 클러스터에 PrestoSQL을 설치하려면 애플리케이션 이름, `PrestoSQL`을 사용합니다.
  + PrestoDB 또는 PrestoSQL 중 하나를 설치할 수 있지만 단일 클러스터에 둘 다 설치할 수는 없습니다. 클러스터를 생성하려고 할 때 PrestoDB와 PrestoSQL을 모두 지정하면 검증 오류가 발생하고 클러스터 생성 요청이 실패합니다.
  + PrestoSQL은 단일 마스터 클러스터 및 멀티 마스터 클러스터 모두에서 지원됩니다. 멀티 마스터 클러스터에서 PrestoSQL 또는 PrestoDB를 실행하려면 외부 Hive 메타스토어가 필요합니다. [여러 프라이머리 노드를 포함하는 EMR 클러스터에서 지원되는 애플리케이션](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list)을 참조하세요.
+ Docker를 통해 Apache Hadoop 및 Apache Spark에서의 ECR 자동 인증 지원: Spark 사용자는 Docker Hub와 Amazon Elastic Container Registry(Amazon ECR)의 도커 이미지를 사용하여 환경 및 라이브러리 종속 항목을 정의할 수 있습니다.

  [Docker를 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html)하고 [Amazon EMR 6.x를 사용하여 Docker와 함께 Spark 애플리케이션을 실행](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html)합니다.
+ EMR에서 Apache Hive ACID 트랜잭션 지원: Amazon EMR 6.1.0에서는 Hive ACID 트랜잭션에 대한 지원을 추가하였고, 데이터베이스의 ACID 속성을 준수합니다. 이 기능을 사용하면 Amazon Simple Storage Service(S3)의 데이터를 사용하여 Hive 관리형 테이블에서 `INSERT, UPDATE, DELETE,` 및 `MERGE` 작업을 실행할 수 있습니다. 이는 스트리밍 수집, 데이터 복원, MERGE를 사용한 대량 업데이트, 느리게 변화하는 크기 등과 같은 사용 사례와 관련된 주요 기능입니다. 구성 예제 및 사용 사례를 비롯한 자세한 내용은 [Amazon EMR supports Apache Hive ACID transactions](https://aws.amazon.com/blogs/big-data/amazon-emr-supports-apache-hive-acid-transactions)를 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ Apache Flink는 EMR 6.0.0에서 지원되지 않지만 EMR 6.1.0에서 Flink 1.11.0으로 지원됩니다. 이 버전은 Hadoop 3을 공식적으로 지원하는 Flink의 첫 번째 버전입니다. [Apache Flink 1.11.0 Release Announcement](https://flink.apache.org/news/2020/07/06/release-1.11.0.html)를 참조하세요.
+ Ganglia는 기본 EMR 6.1.0 패키지 번들에서 제거되었습니다.

**알려진 문제**
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**중요**  
Amazon EMR 6.1.0 및 6.2.0에는 모든 Hudi 삽입, 업서트 및 삭제 작업에 큰 영향을 미칠 수 있는 성능 문제가 포함되어 있습니다. Amazon EMR 6.1.0 또는 6.2.0에서 Hudi를 사용하려는 경우 AWS 지원팀에 문의하여 패치된 Hudi RPM을 받아야 합니다.
+ `spark.driver.extraJavaOptions` 및 `spark.executor.extraJavaOptions`를 사용하여 사용자 지정 가비지 수집 구성을 설정하면 가비지 수집 구성 충돌로 인해 EMR 6.1에서 드라이버 및 실행기를 시작하지 못할 수 있습니다. EMR 릴리스 6.1.0에서는 `spark.driver.defaultJavaOptions` 및 `spark.executor.defaultJavaOptions` 속성 대신, 드라이버와 실행기에 대한 사용자 지정 Spark 가비지 수집 구성을 지정해야 합니다. 자세한 내용은 [Apache Spark Runtime Environment](https://spark.apache.org/docs/latest/configuration.html#runtime-environment) 및 [Amazon EMR 6.1.0에서 Spark 가비지 수집 구성](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-configure.html#spark-gc-config)을 참조하세요.
+ Oozie에서 Pig를 사용하는 경우(또한 Hue는 Oozie 작업을 사용하여 Pig 스크립트를 실행하므로 Hue 내에서 Pig를 사용하는 경우) 네이티브 lzo 라이브러리를 로드할 수 없다는 오류가 발생합니다. 이 오류 메시지는 정보 제공용이며 Pig 실행을 차단하지 않습니다.
+ Hudi 동시성 지원: 현재 Hudi는 단일 Hudi 테이블에 대한 동시 쓰기를 지원하지 않습니다. 또한 Hudi는 새 작성기를 시작하기 전에 진행 중인 작성기에서 수행하는 모든 변경 사항을 롤백합니다. 동시 쓰기는 이 메커니즘을 방해하고 경쟁 조건을 유발하여 데이터를 손상시킬 수 있습니다. 데이터 처리 워크플로의 일부로 항상 Hudi 테이블에서 단일 Hudi 작성기만 작동해야 합니다. Hudi는 동일한 Hudi 테이블에서 작동하는 여러 개의 동시 리더를 지원합니다.
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.
+ Amazon EMR 6.1.0에는 Presto를 실행하는 클러스터에 영향을 미치는 문제가 있습니다. 오랜 기간(일 단위)이 경과한 후 클러스터에서 'su: failed to execute /bin/bash: Resource temporarily unavailable' 또는 'shell request failed on channel 0'과 같은 오류가 발생할 수 있습니다. 이 문제는 내부 Amazon EMR 프로세스(InstanceController)에서 너무 많은 경량 프로세스(LWP)를 생성하여 결국 Hadoop 사용자가 nproc 한도를 초과하기 때문에 발생합니다. 이를 통해 사용자는 추가 프로세스를 열 수 없습니다. 이 문제의 해결 방법은 EMR 6.2.0으로 업그레이드하는 것입니다.

## 6.1.0 구성 요소 버전
<a name="emr-610-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 2.0.0 | EMR S3Select 커넥터 | 
| emrfs | 2.42.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.11.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.2.5 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.2.5 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.2.5 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.2.5 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.2.5 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.2-incubating-amzn-2 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.2-incubating-amzn-2 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hudi-prestosql | 0.5.2-incubating-amzn-2 | Hudi와 함께 PrestoSQL을 실행하기 위한 번들 라이브러리. | 
| hudi-spark | 0.5.2-incubating-amzn-2 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.7.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.6.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.3.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.232 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.232 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.232 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| prestosql-coordinator | 338 | prestosql-workers의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| prestosql-worker | 338 | 여러 쿼리를 실행하는 서비스. | 
| prestosql-client | 338 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 2.0.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 3.0.0-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 3.0.0-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 3.0.0-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 3.0.0-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.1.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0-preview1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 6.1.0 구성 분류
<a name="emr-610-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-6.1.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| prestosql-log | Presto log.properties 파일에서 값을 변경합니다. | 
| prestosql-config | Presto config.properties 파일에서 값을 변경합니다. | 
| prestosql-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| prestosql-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| prestosql-node | PrestoSQL node.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-blackhole | PrestoSQL blackhole.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-cassandra | PrestoSQL cassandra.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-hive | PrestoSQL hive.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-jmx | PrestoSQL jmx.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-kafka | PrestoSQL kafka.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-localfile | PrestoSQL localfile.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-memory | PrestoSQL memory.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-mongodb | PrestoSQL mongodb.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-mysql | PrestoSQL mysql.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-postgresql | PrestoSQL postgresql.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-raptor | PrestoSQL raptor.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-redis | PrestoSQL redis.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-redshift | PrestoSQL redshift.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-tpch | PrestoSQL tpch.properties 파일에서 값을 변경합니다. | 
| prestosql-connector-tpcds | PrestoSQL tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 6.0.1
<a name="emr-601-release"></a>

## 6.0.1 애플리케이션 버전
<a name="emr-601-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.0.1 릴리스 정보
<a name="emr-601-relnotes"></a>

이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).

## 6.0.1 구성 요소 버전
<a name="emr-601-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.5.0 | EMR S3Select 커넥터 | 
| emrfs | 2.39.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-0.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-0.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-0.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-0.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-0.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.0-incubating-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.0.0 | Jupyter 노트북용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.5.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.230 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.230 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.230 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.4 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.4 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.4 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.4 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0-SNAPSHOT | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 6.0.1 구성 분류
<a name="emr-601-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-6.0.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 6.0.0
<a name="emr-600-release"></a>

## 6.0.0 애플리케이션 버전
<a name="emr-600-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 | 
| HCatalog | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hadoop | 3.2.1-amzn-1.1 | 3.2.1-amzn-1 | 3.2.1-amzn-0.1 | 3.2.1-amzn-0 | 
| Hive | 3.1.2-amzn-2 | 3.1.2-amzn-2 | 3.1.2-amzn-0 | 3.1.2-amzn-0 | 
| Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 | 
| Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout |  -  |  -  |  -  |  -  | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 5.0.0-HBase-2.0 | 
| Pig | 0.17.0 | 0.17.0 |  -  |  -  | 
| Presto | 0.232 | 0.232 | 0.230 | 0.230 | 
| Spark | 3.0.0-amzn-0.1 | 3.0.0-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 |  -  |  -  | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) | 338 | 338 |  -  |  -  | 
| Zeppelin | 0.9.0-preview1 | 0.9.0-preview1 | 0.9.0-SNAPSHOT | 0.9.0-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 6.0.0 릴리스 정보
<a name="emr-600-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 6.0.0에 대한 정보가 포함됩니다.

최초 릴리스 날짜: 2020년 3월 10일

**지원되는 애플리케이션**
+ AWS SDK for Java 버전 1.11.711
+ Ganglia 버전 3.7.2
+ Hadoop 버전 3.2.1
+ HBase 버전 2.2.3
+ HCatalog 버전 3.1.2
+ Hive 버전 3.1.2
+ Hudi 버전 0.5.0-incubating
+ Hue 버전 4.4.0
+ JupyterHub 버전 1.0.0
+ Livy 버전 0.6.0
+ MXNet 버전 1.5.1
+ Oozie 버전 5.1.0
+ Phoenix 버전 5.0.0
+ Presto 버전 0.230
+ Spark 버전 2.4.4
+ TensorFlow 버전 1.14.0
+ Zeppelin 버전 0.9.0-SNAPSHOT
+ Zookeeper 버전 3.4.14
+ 커넥터 및 드라이버: DynamoDB Connector 4.14.0

**참고**  
Flink, Sqoop, Pig 및 Mahout는 Amazon EMR 버전 6.0.0에서만 사용할 수 있습니다.

**새로운 기능**
+ YARN 도커 런타임 지원 - Spark 작업과 같은 YARN 애플리케이션은 이제 도커 컨테이너의 컨텍스트에서 실행될 수 있습니다. 이를 통해 Amazon EMR 클러스터에 사용자 지정 라이브러리를 설치할 필요 없이 도커 이미지의 종속성을 쉽게 정의할 수 있습니다. 자세한 내용은 [Docker 통합 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-docker.html) 및 [Amazon EMR 6.0.0을 사용하여 Docker와 함께 Spark 애플리케이션 실행](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-docker.html)을 참조하세요.
+ Hive LLAP 지원 - Hive는 이제 향상된 쿼리 성능을 위해 LLAP 실행 모드를 지원합니다. 자세한 내용은 [Hive LLAP 사용](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive-llap.html)을 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ Amazon Linux
  + Amazon Linux 2는 EMR 6.x 릴리스 시리즈의 운영 체제입니다.
  + `systemd`는 Amazon Linux 1에서 사용되는 `upstart` 대신 서비스 관리에 사용됩니다.
+ Java Development Kit(JDK)
  + Coretto JDK 8은 EMR 6.x 릴리스 시리즈의 기본 JDK입니다.
+ Scala
  + Scala 2.12는 Apache Spark 및 Apache Livy와 함께 사용됩니다.
+ Python 3
  + Python 3은 이제 EMR에서 Python의 기본 버전입니다.
+ YAR의 노드 레이블
  + Amazon EMR 6.x 릴리스 시리즈부터 YARN 노드 레이블 기능은 기본적으로 비활성화되어 있습니다. 애플리케이션 마스터 프로세스는 기본적으로 코어 및 작업 노드 모두에서 실행할 수 있습니다. `yarn.node-labels.enabled` 및 `yarn.node-labels.am.default-node-label-expression` 속성을 구성하여 YARN 노드 레이블 기능을 활성화할 수 있습니다. 자세한 내용은 [프라이머리, 코어 및 태스크 노드 이해](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-master-core-task-nodes.html)를 참조하세요.

**알려진 문제**
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ PySpark, SparkR 및 spark-shell을 포함한 Spark 대화형 셸은 도커를 추가 라이브러리와 함께 사용하는 것을 지원하지 않습니다.
+ Amazon EMR 버전 6.0.0에서 Python 3을 사용하려면 `yarn.nodemanager.env-whitelist`에 `PATH`를 추가해야 합니다.
+ Glue 데이터 카탈로그를 Hive의 AWS 메타스토어로 사용하는 경우 LLAP(Live Long and Process) 기능은 지원되지 않습니다.
+ Spark 및 Docker 통합과 함께 Amazon EMR 6.0.0을 사용하는 경우 Docker 런타임으로 Spark 작업을 제출할 때 실패를 방지하기 위해 클러스터의 인스턴스를 동일한 인스턴스 유형과 동일한 크기의 EBS 볼륨으로 구성해야 합니다.
+ Amazon EMR 6.0.0의 경우 Amazon S3 스토리지 모드에서 HBase는 [HBASE-24286](https://issues.apache.org/jira/browse/HBASE-24286) 문제의 영향을 받습니다. 기존 S3 데이터를 사용하여 클러스터를 생성할 때는 HBase 마스터를 초기화할 수 없습니다.
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 6.0.0 구성 요소 버전
<a name="emr-600-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 3.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.5.0 | EMR S3Select 커넥터 | 
| emrfs | 2.39.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 3.2.1-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 3.2.1-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 3.2.1-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 3.2.1-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 3.2.1-amzn-0 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 3.2.1-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 3.2.1-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 3.2.1-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 3.2.1-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 3.2.1-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 3.2.1-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 2.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 2.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 2.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 2.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 2.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 3.1.2-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 3.1.2-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 3.1.2-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 3.1.2-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 3.1.2-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 3.1.2-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 3.1.2-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.0-incubating-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.0-incubating-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.0.0 | Jupyter 노트북용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mxnet | 1.5.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 이상 | MariaDB 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 5.0.0-HBase-2.0 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 5.0.0-HBase-2.0 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.230 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.230 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.230 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.4 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.4 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.4 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.4 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.41 이상 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0-SNAPSHOT | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 6.0.0 구성 분류
<a name="emr-600-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-6.0.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-env | HDFS 환경에서 값을 변경합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive | Apache Hive에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 5.x 릴리스 버전
<a name="emr-release-5x"></a>

이 섹션에는 각 Amazon EMR 5.x 릴리스 버전에 제공되는 애플리케이션 버전, 릴리스 정보, 구성 요소 버전 및 구성 분류가 포함되어 있습니다.

클러스터를 시작할 때 Amazon EMR의 여러 릴리스 중에서 선택할 수 있습니다. 이를 통해 호환성 요구 사항에 맞는 애플리케이션 버전을 테스트하고 사용할 수 있습니다. *릴리스 레이블*과 함께 릴리스 번호를 지정합니다. 릴리스 레이블은 `emr-x.x.x` 형식입니다. 예를 들어 `emr-7.12.0`입니다.

새 Amazon EMR 릴리스는 최초 릴리스 날짜에 첫 번째 리전부터 시작하여 일정 기간에 걸쳐 여러 리전에 사용 가능해집니다. 이 기간에는 사용자 리전에서 최신 릴리스 버전이 제공되지 않을 수도 있습니다.

모든 Amazon EMR 5.x 릴리스에서 애플리케이션 버전의 전체 테이블은 [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md) 섹션을 참조하세요.

**Topics**
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 릴리스 5.36.2](emr-5362-release.md)
+ [Amazon EMR 릴리스 5.36.1](emr-5361-release.md)
+ [Amazon EMR 릴리스 5.36.0](emr-5360-release.md)
+ [Amazon EMR 릴리스 5.35.0](emr-5350-release.md)
+ [Amazon EMR 릴리스 5.34.0](emr-5340-release.md)
+ [Amazon EMR 릴리스 5.33.1](emr-5331-release.md)
+ [Amazon EMR 릴리스 5.33.0](emr-5330-release.md)
+ [Amazon EMR 릴리스 5.32.1](emr-5321-release.md)
+ [Amazon EMR 릴리스 5.32.0](emr-5320-release.md)
+ [Amazon EMR 릴리스 5.31.1](emr-5311-release.md)
+ [Amazon EMR 릴리스 5.31.0](emr-5310-release.md)
+ [Amazon EMR 릴리스 5.30.2](emr-5302-release.md)
+ [Amazon EMR 릴리스 5.30.1](emr-5301-release.md)
+ [Amazon EMR 릴리스 5.30.0](emr-5300-release.md)
+ [Amazon EMR 릴리스 5.29.0](emr-5290-release.md)
+ [Amazon EMR 릴리스 5.28.1](emr-5281-release.md)
+ [Amazon EMR 릴리스 5.28.0](emr-5280-release.md)
+ [Amazon EMR 릴리스 5.27.1](emr-5271-release.md)
+ [Amazon EMR 릴리스 5.27.0](emr-5270-release.md)
+ [Amazon EMR 릴리스 5.26.0](emr-5260-release.md)
+ [Amazon EMR 릴리스 5.25.0](emr-5250-release.md)
+ [Amazon EMR 릴리스 5.24.1](emr-5241-release.md)
+ [Amazon EMR 릴리스 5.24.0](emr-5240-release.md)
+ [Amazon EMR 릴리스 5.23.1](emr-5231-release.md)
+ [Amazon EMR 릴리스 5.23.0](emr-5230-release.md)
+ [Amazon EMR 릴리스 5.22.0](emr-5220-release.md)
+ [Amazon EMR 릴리스 5.21.2](emr-5212-release.md)
+ [Amazon EMR 릴리스 5.21.1](emr-5211-release.md)
+ [Amazon EMR 릴리스 5.21.0](emr-5210-release.md)
+ [Amazon EMR 릴리스 5.20.1](emr-5201-release.md)
+ [Amazon EMR 릴리스 5.20.0](emr-5200-release.md)
+ [Amazon EMR 릴리스 5.19.1](emr-5191-release.md)
+ [Amazon EMR 릴리스 5.19.0](emr-5190-release.md)
+ [Amazon EMR 릴리스 5.18.1](emr-5181-release.md)
+ [Amazon EMR 릴리스 5.18.0](emr-5180-release.md)
+ [Amazon EMR 릴리스 5.17.2](emr-5172-release.md)
+ [Amazon EMR 릴리스 5.17.1](emr-5171-release.md)
+ [Amazon EMR 릴리스 5.17.0](emr-5170-release.md)
+ [Amazon EMR 릴리스 5.16.1](emr-5161-release.md)
+ [Amazon EMR 릴리스 5.16.0](emr-5160-release.md)
+ [Amazon EMR 릴리스 5.15.1](emr-5151-release.md)
+ [Amazon EMR 릴리스 5.15.0](emr-5150-release.md)
+ [Amazon EMR 릴리스 5.14.2](emr-5142-release.md)
+ [Amazon EMR 릴리스 5.14.1](emr-5141-release.md)
+ [Amazon EMR 릴리스 5.14.0](emr-5140-release.md)
+ [Amazon EMR 릴리스 5.13.1](emr-5131-release.md)
+ [Amazon EMR 릴리스 5.13.0](emr-5130-release.md)
+ [Amazon EMR 릴리스 5.12.3](emr-5123-release.md)
+ [Amazon EMR 릴리스 5.12.2](emr-5122-release.md)
+ [Amazon EMR 릴리스 5.12.1](emr-5121-release.md)
+ [Amazon EMR 릴리스 5.12.0](emr-5120-release.md)
+ [Amazon EMR 릴리스 5.11.4](emr-5114-release.md)
+ [Amazon EMR 릴리스 5.11.3](emr-5113-release.md)
+ [Amazon EMR 릴리스 5.11.2](emr-5112-release.md)
+ [Amazon EMR 릴리스 5.11.1](emr-5111-release.md)
+ [Amazon EMR 릴리스 5.11.0](emr-5110-release.md)
+ [Amazon EMR 릴리스 5.10.1](emr-5101-release.md)
+ [Amazon EMR 릴리스 5.10.0](emr-5100-release.md)
+ [Amazon EMR 릴리스 5.9.1](emr-591-release.md)
+ [Amazon EMR 릴리스 5.9.0](emr-590-release.md)
+ [Amazon EMR 릴리스 5.8.3](emr-583-release.md)
+ [Amazon EMR 릴리스 5.8.2](emr-582-release.md)
+ [Amazon EMR 릴리스 5.8.1](emr-581-release.md)
+ [Amazon EMR 릴리스 5.8.0](emr-580-release.md)
+ [Amazon EMR 릴리스 5.7.1](emr-571-release.md)
+ [Amazon EMR 릴리스 5.7.0](emr-570-release.md)
+ [Amazon EMR 릴리스 5.6.1](emr-561-release.md)
+ [Amazon EMR 릴리스 5.6.0](emr-560-release.md)
+ [Amazon EMR 릴리스 5.5.4](emr-554-release.md)
+ [Amazon EMR 릴리스 5.5.3](emr-553-release.md)
+ [Amazon EMR 릴리스 5.5.2](emr-552-release.md)
+ [Amazon EMR 릴리스 5.5.1](emr-551-release.md)
+ [Amazon EMR 릴리스 5.5.0](emr-550-release.md)
+ [Amazon EMR 릴리스 5.4.1](emr-541-release.md)
+ [Amazon EMR 릴리스 5.4.0](emr-540-release.md)
+ [Amazon EMR 릴리스 5.3.2](emr-532-release.md)
+ [Amazon EMR 릴리스 5.3.1](emr-531-release.md)
+ [Amazon EMR 릴리스 5.3.0](emr-530-release.md)
+ [Amazon EMR 릴리스 5.2.3](emr-523-release.md)
+ [Amazon EMR 릴리스 5.2.2](emr-522-release.md)
+ [Amazon EMR 릴리스 5.2.1](emr-521-release.md)
+ [Amazon EMR 릴리스 5.2.0](emr-520-release.md)
+ [Amazon EMR 릴리스 5.1.1](emr-511-release.md)
+ [Amazon EMR 릴리스 5.1.0](emr-510-release.md)
+ [Amazon EMR 릴리스 5.0.3](emr-503-release.md)
+ [Amazon EMR 릴리스 5.0.2](emr-502-release.md)
+ [Amazon EMR 릴리스 5.0.1](emr-501-release.md)
+ [Amazon EMR 릴리스 5.0.0](emr-500-release.md)

# Amazon EMR 5.x 릴리스의 애플리케이션 버전
<a name="emr-release-app-versions-5.x"></a>

다음 테이블에는 각 Amazon EMR 5.x 릴리스에서 사용할 수 있는 애플리케이션 버전이 나와 있습니다.


**애플리케이션 버전 정보**  

|  | emr-5.36.2 | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 206년 1월 12일 | 206년 1월 12일 | 206년 1월 12일 | 1.12.159 | 1.11.970 | 1.11.970 | 1.11.970 | 1.11.890 | 1.11.890 | 1.11.852 | 1.11.852 | 1.11.759 | 1.11.759 | 1.11.759 | 1.11.682 | 1.11.659 | 1.11.659 | 1.11.615 | 1.11.615 | 1.11.595 | 1.11.566 | 1.11.546 | 1.11.546 | 1.11.519 | 1.11.519 | 1.11.510 | 1.11.479 | 1.11.479 | 1.11.479 | 1.11.461 | 1.11.461 | 1.11.433 | 1.11.433 | 1.11.393 | 1.11.393 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.333 | 1.11.333 | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.221 | 1.11.221 | 1.11.183 | 1.11.183 | 1.11.160 | 1.11.160 | 1.11.160 | 1.11.160 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.14.2 | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | 1.8.1 | 1.8.1 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.1 | 1.7.1 | 1.7.1 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 | 1.5.0 | 1.5.0 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.4 | 1.1.4 | 1.1.4 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 0.232 | 0.232 | 0.227 | 0.227 | 0.227 | 0.224 | 0.224 | 0.220 | 0.220 | 0.219 | 0.219 | 0.215 | 0.215 | 0.215 | 0.215 | 0.215 | 0.215 | 0.214 | 0.214 | 0.212 | 0.212 | 0.210 | 0.210 | 0.206 | 0.206 | 0.206 | 0.203 | 0.203 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.194 | 0.188 | 0.188 | 0.188 | 0.188 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.187 | 0.184 | 0.184 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.170 | 0.166 | 0.166 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 1.11.0 | 1.11.0 | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

# Amazon EMR 릴리스 5.36.2
<a name="emr-5362-release"></a>

## 5.36.2 애플리케이션 버전
<a name="emr-5362-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.36.2 | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 206년 1월 12일 | 206년 1월 12일 | 206년 1월 12일 | 1.12.159 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.14.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.6.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.2 릴리스 정보
<a name="emr-5362-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.36.2에 대한 정보가 포함됩니다. 변경 사항은 5.36.1에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [변경 로그](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-5362-release.html#5362-changelog)를 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스에서는 Amazon EMR에서 클러스터의 HDFS 복제 인수 설정 미만으로 코어 노드를 스케일 다운하지 않도록 클러스터 스케일 다운 로직을 개선합니다. 이 개선 사항은 데이터 중복성 요구 사항에 부합하며 조정 작업이 중단될 가능성을 줄여줍니다.
+ 이 릴리스에서는 Presto 또는 Trino를 실행하는 EMR 클러스터의 클러스터 조정 워크플로에 새로운 재시도 메커니즘을 추가합니다. 이 개선 사항은 크기 조정 작업의 한 번 실패로 인해 클러스터 크기 조정이 무기한 실행될 위험을 줄여줍니다. 또한 클러스터를 더 빠르게 스케일 업 및 스케일 다운하므로 클러스터 활용도가 향상됩니다.
+ Amazon EMR이 코어 노드를 정상적으로 해제하는 동안 클러스터 스케일 다운 작업이 중단되고 완전히 해제되기 전에 비정상 상태로 전환되는 문제를 수정합니다.
+ Amazon EMR이 단일 노드를 재시작할 때 여러 프라이머리 노드가 있는 고가용성 클러스터의 노드 안정성을 개선합니다.
+ Amazon EC2에서 실행되는 Amazon EMR을 사용하여 로그 관리를 최적화합니다. 따라서 클러스터 로그의 스토리지 비용이 조금 절감될 수 있습니다.
+ 로그 파일이 범위를 초과하여 클러스터 작업을 방해하는 시나리오를 최소화하기 위해 프라이머리 노드에서 유지되는 ZooKeeper 트랜잭션 로그 파일의 관리를 개선합니다.
+ Yarn ResourceManager와 통신할 수 없어 여러 프라이머리 노드가 있는 고가용성 클러스터에서 실패 원인이 될 수 있는 드문 버그를 수정합니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5362-release.html)

## 5.36.2 구성 요소 버전
<a name="emr-5362-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.16.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.5.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.21.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.7.0 | EMR S3Select 커넥터 | 
| emrfs | 2.51.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.14.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.14.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.9-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.9-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.9-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.9-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.9-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.10.1-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.10.1-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.10.1-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.13.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 11.0.194 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.267-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.267-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.267-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.8-amzn-2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.8-amzn-2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.8-amzn-2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.8-amzn-2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.36.2 구성 분류
<a name="emr-5362-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.36.2 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 5.36.2 변경 로그
<a name="5362-changelog"></a>


**5.36.2 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2024-05-28 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 5.36.2 전체 배포됨 | 
| 2024-05-28 | 문서 게시 | Amazon EMR 5.36.2 릴리스 정보 최초 게시됨 | 
| 2024-05-20 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 5.36.2 최초 배포됨 | 

# Amazon EMR 릴리스 5.36.1
<a name="emr-5361-release"></a>

## 5.36.1 애플리케이션 버전
<a name="emr-5361-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.36.1 | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 206년 1월 12일 | 206년 1월 12일 | 1.12.159 | 1.11.970 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.14.2 | 1.13.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 
| Hudi | 0.10.1-amzn-1 | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 
| Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.10.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.1 릴리스 정보
<a name="emr-5361-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.36.1에 대한 정보가 포함됩니다. 변경 사항은 5.36.0에 관련됩니다. 릴리스 일정에 대한 자세한 내용은 [변경 로그](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-5361-release.html#5361-changelog)를 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 릴리스 5.36.1은 클러스터 스케일 다운 중에 Amazon S3에 로그를 아카이브하기 위한 지원을 추가합니다. 이전 5.x 릴리스에서는 클러스터 종료 중에만 Amazon S3에 로그 파일을 아카이브할 수 있었습니다. 이 개선으로 클러스터에서 생성된 로그 파일은 노드가 종료된 후에도 Amazon S3에서 계속 유지됩니다. 자세한 내용은 [클러스터 로깅 및 디버깅 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html)을 참조하세요.
+ 5.36.1 릴리스에서는 EMR 클러스터의 추가 로그 폴더를 모니터링하도록 클러스터 내 로그 관리 대몬(daemon)이 개선되었습니다. 이 개선 사항은 디스크 과다 사용 시나리오를 최소화합니다.
+ 5.36.1 릴리스에서는 클러스터 내 로그 관리 대몬(daemon)이 중지되면 해당 대몬(daemon)을 자동으로 다시 시작합니다. 이 개선 사항은 디스크 과다 사용으로 인해 노드가 비정상으로 보이는 위험을 줄입니다.
+ 5.36.1 릴리스에서는 프라이머리 노드의 Amazon EMR 대몬(daemon)이 클러스터의 종료된 인스턴스에 대한 오래된 메타데이터를 유지하는 문제를 수정했습니다. 오래된 데이터를 유지 관리하면 클러스터 내 CPU 및 메모리 사용량이 제한 없이 증가하여 결국 클러스터 장애로 이어질 수 있습니다.
+ 여러 프라이머리 노드에서 시작되는 클러스터와 관련하여 5.36.1 릴리스에서는 프라이머리 노드 중 하나에서 발생한 Amazon EC2 하드웨어 장애로 인해 두 번째 프라이머리 노드에서 장애가 발생하여 클러스터가 불안정해질 수 있는 문제를 수정했습니다.
+ 전송 중 암호화가 구성된 클러스터와 관련하여 이제 Managed Scaling에서 *Spark 셔플 데이터*를 인식합니다. Spark 셔플 데이터는 Spark에서 특정 작업을 수행하기 위해 여러 파티션에서 재분배하는 데이터를 말합니다. 스케일 다운 중에 Managed Scaling은 셔플 데이터가 있는 인스턴스를 무시합니다. 이를 통해 요금 및 성능 면에서 비용이 많이 드는 작업 재시도와 재계산을 방지할 수 있습니다. 셔플 작업에 대한 자세한 내용은 [Spark Programming Guide](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations)를 참조하세요.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5361-release.html)

## 5.36.1 구성 요소 버전
<a name="emr-5361-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.16.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.5.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.21.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.7.0 | EMR S3Select 커넥터 | 
| emrfs | 2.51.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.14.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.14.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.9-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.9-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.9-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.9-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.9-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.10.1-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.10.1-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.10.1-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.13.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 11.0.194 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.267-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.267-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.267-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.8-amzn-2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.8-amzn-2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.8-amzn-2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.8-amzn-2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.36.1 구성 분류
<a name="emr-5361-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.36.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| hudi-defaults | Hudi hudi-defaults.conf 파일에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

## 5.36.1 변경 로그
<a name="5361-changelog"></a>


**5.36.1 릴리스 및 릴리스 정보에 대한 변경 로그**  

| Date | 이벤트 | 설명 | 
| --- | --- | --- | 
| 2023-07-26 | 업데이트 | 새 OS 릴리스 레이블 2.0.20230612.0 및 2.0.20230628.0. | 
| 2023-05-25 | 배포 완료 | 모든 [지원되는 리전](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)에 Amazon EMR 5.36.1 전체 배포됨 | 
| 2023-05-09 | 문서 게시 | Amazon EMR 5.36.1 릴리스 정보 최초 게시됨 | 
| 2023-05-04 | 초기 릴리스 | 제한된 상용 리전에 Amazon EMR 5.36.1 최초 배포됨 | 

# Amazon EMR 릴리스 5.36.0
<a name="emr-5360-release"></a>

## 5.36.0 애플리케이션 버전
<a name="emr-5360-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.36.0 | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 206년 1월 12일 | 1.12.159 | 1.11.970 | 1.11.970 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.14.2 | 1.13.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 
| Hadoop | 2.10.1-amzn-4 | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 
| Hive | 2.3.9-amzn-2 | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 
| Hudi | 0.10.1-amzn-1 | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 
| Hue | 4.10.0 | 4.10.0 | 4.9.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.267-amzn-1 | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 2.4.8-amzn-2 | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.10.0 | 0.9.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.36.0 릴리스 정보
<a name="emr-5360-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.36.0에 대한 정보가 포함됩니다. 변경 사항은 5.35.0에 관련됩니다.

최초 릴리스 날짜: 2022년 6월 15일

**새로운 기능**
+ Amazon EMR 릴리스 5.36.0에서는 Apache Ranger 지원 클러스터에서 Apache Spark를 사용하는 데이터 정의 언어(DDL)에 대한 지원을 추가합니다. 이를 통해 Apache Ranger를 사용하여 Amazon EMR 클러스터에서 데이터베이스 및 테이블을 생성, 변경 및 삭제하는 등의 작업에 대한 액세스를 관리할 수 있습니다.
+ Amazon EMR 5.36 이상, 6.6 이상 또는 7.0 이상의 *최신 패치 릴리스*가 적용된 클러스터를 시작하는 경우 Amazon EMR은 기본 Amazon EMR AMI에 대한 최신 Amazon Linux 2023 or Amazon Linux 2 릴리스를 사용합니다. 자세한 내용은 [Amazon EMR에 대한 기본 Amazon Linux AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-default-ami.html)을 참조하세요.
**참고**  
이 릴리스에서는 패치 릴리스가 1개 더 추가되었으므로 더 이상 자동 AMI 업데이트를 받지 않습니다. 패치 릴리스는 소수점 두 번째 자리 뒤의 숫자(`6.8.1`)로 표시됩니다. 최신 패치 릴리스를 사용하는지 확인하려면 [https://docs.aws.amazon.com/emr/latest/ReleaseGuide](https://docs.aws.amazon.com/emr/latest/ReleaseGuide)에서 사용 가능한 릴리스를 확인하거나, 콘솔에서 클러스터를 생성할 때 **Amazon EMR 릴리스** 드롭다운을 확인하거나, [https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html](https://docs.aws.amazon.com/emr/latest/APIReference/API_ListReleaseLabels.html) API 또는 [https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html](https://docs.aws.amazon.com/cli/latest/reference/emr/list-release-labels.html) CLI 작업을 사용합니다. 새 릴리스에 대한 업데이트를 받으려면 [새로운 기능](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)에서 RSS 피드를 구독하세요.


| OsReleaseLabel(Amazon Linux 버전) | Amazon Linux 커널 버전 | 사용 가능한 날짜 | 지원되는 리전: | 
| --- | --- | --- | --- | 
| 2.0.20260302.0 | 4.14.355-280.714.amzn2 | 2026년 3월 13일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20260216.0 | 4.14.355-280.714.amzn2 | 2026년 2월 25일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20260120.1 | 4.14.355-280.713.amzn2 | 2026년 2월 18일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20251208.0 | 4.14.355-280.710.amzn2 | 2026년 1월 13일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20251121.0 | 4.14.355-280.708.amzn2 | 2025년 12월 16일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20251027.1 | 4.14.355-280.706.amzn2 | 2025년 11월 10일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20250929.2 | 4.14.355-280.695.amzn2 | 2025년 10월 13일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20250818.2 | 4.14.355-280.672.amzn2 | 2025년 9월 17일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20250808.1 | 4.14.355-280.664.amzn2 | 2025년 8월 28일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20250721.2 | 4.14.355-280.652.amzn2 | 2025년 8월 14일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20250623.0 | 4.14.355-277.647.amzn2 | 2025년 7월 21일 | 아프리카(케이프타운), 아시아 태평양(홍콩), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(뭄바이), 아시아 태평양(하이데라바드), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 캐나다(중부), 유럽(프랑크푸르트), 유럽(취리히), 유럽(스톡홀름), 유럽(밀라노), 유럽(스페인), 유럽(아일랜드), 유럽(런던), 유럽(파리), 이스라엘(텔아비브), 중동(UAE), 중동(바레인), 남아메리카(상파울루), 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건) | 
| 2.0.20250610.0 | 4.14.355-277.647.amzn2 | 2025년 7월 14일 | 유럽(스톡홀름), 중동(바레인), 중국(베이징), 아시아 태평양(뭄바이), 유럽(파리), 아시아 태평양(자카르타), 미국 동부(오하이오), 아프리카(케이프타운), 유럽(아일랜드), 중동(UAE), 유럽(프랑크푸르트), 남아메리카(상파울루), 아시아 태평양(홍콩), 아시아 태평양(하이데라바드), 미국 동부(버지니아 북부), 아시아 태평양(서울), 아시아 태평양(오사카), 유럽(런던), 유럽(밀라노), 아시아 태평양(도쿄), AWS GovCloud(미국 동부), AWS GovCloud(미국 서부), 미국 서부(오리건), 미국 서부(캘리포니아 북부), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 이스라엘(텔아비브), 캐나다(중부), 유럽(스페인), 중국(닝샤), 유럽(취리히) | 
| 2.0.20250527.1 | 4.14.355-277.647.amzn2 | 2025년 6월 19일 | 유럽(스톡홀름), 중동(바레인), 아시아 태평양(뭄바이), 유럽(파리), 아시아 태평양(자카르타), 미국 동부(오하이오), 아프리카(케이프타운), 유럽(아일랜드), 중동(UAE), 유럽(프랑크푸르트), 남아메리카(상파울루), 아시아 태평양(홍콩), 아시아 태평양(하이데라바드), 미국 동부(버지니아 북부), 아시아 태평양(서울), 아시아 태평양(오사카), 유럽(런던), 아시아 태평양(멜버른), 유럽(밀라노), 아시아 태평양(도쿄), 미국 서부(오리건), 미국 서부(캘리포니아 북부), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 이스라엘(텔아비브), 캐나다(중부), 유럽(스페인), 유럽(취리히) | 
| 2.0.20250512.0 | 4.14.355-277.643.amzn2 | 2025년 6월 4일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(밀라노), 유럽(파리), 유럽(스톡홀름), 아시아 태평양(홍콩), 아시아 태평양(자카르타), 아시아 태평양(뭄바이), 아시아 태평양(오사카), 아시아 태평양(서울), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(도쿄), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 동부), AWS GovCloud(미국 서부), 중국(베이징), 중국(닝샤) | 
| 2.0.20250428.0 | 4.14.355-276.639.amzn2 | 2025년 5월 23일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(밀라노), 유럽(파리), 유럽(스페인), 유럽(스톡홀름), 유럽(취리히), 아시아 태평양(홍콩), 아시아 태평양(하이데라바드), 아시아 태평양(자카르타), 아시아 태평양(멜버른), 아시아 태평양(뭄바이), 아시아 태평양(오사카), 아시아 태평양(서울), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(도쿄), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 중동(UAE), 캐나다(중부), 이스라엘(텔아비브) | 
| 2.0.20250414.0 | 4.14.355-276.618.amzn2 | 2025년 5월 12일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) | 
| 2.0.20250321.0 | 4.14.355 | 2025년 4월 9일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) | 
| 2.0.20250305.0 | 4.14.355 | 2025년 3월 18일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) | 
| 2.0.20250220.0 | 4.14.355 | 2025년 3월 8일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) | 
| 2.0.20250201.0 | 4.14.355 | 2025년 2월 28일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) | 
| 2.0.20250123.4 | 4.14.355 | 2025년 1월 27일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) | 
| 2.0.20250116.0 | 4.14.355 | 2025년 1월 23일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤) | 
| 2.0.20241217.0 | 4.14.355 | 2025년 1월 8일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤), 아시아 태평양(하이데라바드), 중동(UAE), 유럽(스페인), 유럽(취리히), 아시아 태평양(멜버른), 이스라엘(텔아비브)  | 
| 2.0.20240709.1 | 4.14.348 | 2024년 7월 23일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오리건), 유럽(스톡홀름), 유럽(밀라노), 유럽(프랑크푸르트), 유럽(아일랜드), 유럽(런던), 유럽(파리), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아시아 태평양(자카르타), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인), 캐나다(중부), AWS GovCloud(미국 서부), AWS GovCloud(미국 동부), 중국(베이징), 중국(닝샤), 아시아 태평양(하이데라바드), 중동(UAE), 유럽(스페인), 유럽(취리히), 아시아 태평양(멜버른), 이스라엘(텔아비브)  | 
| 2.0.20230504.1 | 4.14.313 | 2023년 5월 16일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20230418.0 | 4.14.311 | 2023년 5월 3일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20230404.1 | 4.14.311 | 2023년 4월 18일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20230404.0 | 4.14.311 | 2023년 4월 10일 | 미국 동부(버지니아 북부), 유럽(파리) | 
| 2.0.20230320.0 | 4.14.309 | 2023년 3월 30일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20230307.0 | 4.14.305 | 2023년 3월 15일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20230207.0 | 4.14.304 | 2023년 2월 22일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20230119.1 | 4.14.301 | 2023년 2월 3일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20221210.1 | 4.14.301 | 2023년 12월 22일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20221103.3 | 4.14.296 | 2022년 12월 5일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20221004.0 | 4.14.294 | 2022년 11월 2일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20220912.1 | 4.14.291 | 2022년 10월 7일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 
| 2.0.20220719.0 | 4.14.287 | 2022년 8월 10일 | 미국 서부(캘리포니아 북부), 유럽(파리), 유럽(스톡홀름), 유럽(프랑크푸르트), 아시아 태평양(뭄바이), 중동(바레인) | 
| 2.0.20220426.0 | 4.14.281 | 2022년 6월 14일 | 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(캘리포니아 북부), 미국 서부(오레곤), 캐나다(중부), 유럽(스톡홀름), 유럽(아일랜드), 유럽(런던), 유럽(파리), 유럽(프랑크푸르트), 유럽(밀라노), 아시아 태평양(홍콩), 아시아 태평양(뭄바이), 아시아 태평양(자카르타), 아시아 태평양(도쿄), 아시아 태평양(서울), 아시아 태평양(오사카), 아시아 태평양(싱가포르), 아시아 태평양(시드니), 아프리카(케이프타운), 남아메리카(상파울루), 중동(바레인) | 

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 5.36.0 업그레이드는 이제 aws-sdk 1.12.206, Hadoop 2.10.1-amzn-4, Hive 2.3.9-amzn-2, Hudi 0.10.1-amzn-1, Spark 2.4.8-amzn-2, Presto 0.267-amzn-1, Amazon Glue connector 1.18.0, EMRFS 2.51.0을 지원합니다.

**알려진 문제**
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.
+ Amazon EMR 릴리스 5.36.0 및 6.6.0\$16.9.0까지는 Log4j2 속성의 잘못된 파일 이름 패턴 구성으로 인해 `SecretAgent` 및 `RecordServer` 서비스 구성 요소에 로그 데이터가 손실될 수 있습니다. 잘못된 구성으로 인해 구성 요소에서 하루에 하나의 로그 파일만 생성합니다. 로테이션 전략이 수행되면 예상대로 새 로그 파일을 생성하는 대신 기존 파일을 덮어씁니다. 해결 방법으로 부트스트랩 작업을 사용하여 매시간 로그 파일을 생성하고 파일 이름에 자동 증가 정수를 추가하여 교체를 처리합니다.

  Amazon EMR 6.6.0\$16.9.0 릴리스의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
  ```

  Amazon EMR 5.36.0의 경우 클러스터를 시작할 때 다음 부트스트랩 작업을 사용합니다.

  ```
  ‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
  ```

## 5.36.0 구성 요소 버전
<a name="emr-5360-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.16.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.5.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.21.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.7.0 | EMR S3Select 커넥터 | 
| emrfs | 2.51.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.14.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.14.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.9-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.9-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.9-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.9-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.9-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.9-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.9-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.10.1-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.10.1-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.10.1-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.13.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 11.0.194 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.267-amzn-1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.267-amzn-1 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.267-amzn-1 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.8-amzn-2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.8-amzn-2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.8-amzn-2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.8-amzn-2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.36.0 구성 분류
<a name="emr-5360-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.36.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 5.35.0
<a name="emr-5350-release"></a>

## 5.35.0 애플리케이션 버전
<a name="emr-5350-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.35.0 | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.12.159 | 1.11.970 | 1.11.970 | 1.11.970 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.14.2 | 1.13.1 | 1.12.1 | 1.12.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 
| Hadoop | 2.10.1-amzn-3 | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 
| Hive | 2.3.9-amzn-0 | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 
| Hudi | 0.9.0-amzn-2 | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 
| Hue | 4.10.0 | 4.9.0 | 4.9.0 | 4.9.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.4.1 | 1.2.2 | 1.2.2 | 
| Livy | 0.7.1-incubating | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.8.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.1 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.266-amzn-0 | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 
| Spark | 2.4.8-amzn-1 | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.4.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.10.0 | 0.9.0 | 0.9.0 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.35.0 릴리스 정보
<a name="emr-5350-relnotes"></a>

Amazon EMR 릴리스 5.35.0의 릴리스 정보입니다.

다음 릴리스 정보에는 Amazon EMR 릴리스 5.35.0에 대한 정보가 포함됩니다. 변경 사항은 5.34.0에 관련됩니다.

최초 릴리스 날짜: 2022년 3월 30일

**새로운 기능**
+ Log4j 1.x 및 Log4j 2.x를 사용하는 Amazon EMR 릴리스 5.35 애플리케이션은 각각 Log4j 1.2.17 이상 및 Log4j 2.17.1 이상을 사용하도록 업그레이드되었으며, 이전 릴리스의 CVE 문제를 완화하기 위해 부트스트랩 작업을 사용할 필요가 없습니다. [CVE-2021-44228 완화를 위한 접근 방법](emr-log4j-vulnerability.md)을(를) 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**


**Flink 변경 사항**  

| 유형 변경 | 설명 | 
| --- | --- | 
| 업그레이드 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Hadoop 변경 사항**  

| 유형 변경 | 설명 | 
| --- | --- | 
| EMR 5.34.0 이후 Hadoop 오픈 소스 백포트 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Hadoop 변경 사항 및 수정 사항 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Hive 변경 사항**  

| 유형 변경 | 설명 | 
| --- | --- | 
| Hive는 이러한 JIRA 수정 사항을 포함하여 오픈 소스 [릴리스 2.3.9](https://www.mail-archive.com/user@hive.apache.org/msg22311.html)로 업그레이드되었습니다. | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| EMR 5.34.0 이후 Hive 오픈 소스 백포트 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| Hive 업그레이드 및 수정 사항 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 
| 새로운 기능 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Oozie 변경 사항**  

| 유형 변경 | 설명 | 
| --- | --- | 
| EMR 5.34.0 이후 Oozie 오픈 소스 백포트 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 


**Pig 변경 사항**  

| 유형 변경 | 설명 | 
| --- | --- | 
| 업그레이드 | [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-5350-release.html) | 

**알려진 문제**
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.35.0 구성 요소 버전
<a name="emr-5350-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.15.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.5.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.20.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.7.0 | EMR S3Select 커넥터 | 
| emrfs | 2.49.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.14.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.14.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-3 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.9-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.9-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.9-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.9-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.9-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.9-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.9-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.9.0-amzn-2 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.9.0-amzn-2 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.9.0-amzn-2 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.10.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.13.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.266-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.266-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.266-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.8-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.8-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.8-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.8-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.35.0 구성 분류
<a name="emr-5350-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.35.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 5.34.0
<a name="emr-5340-release"></a>

## 5.34.0 애플리케이션 버전
<a name="emr-5340-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.34.0 | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.970 | 1.11.970 | 1.11.970 | 1.11.890 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 
| Hadoop | 2.10.1-amzn-2 | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 
| Hive | 2.3.8-amzn-0 | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 
| Hudi | 0.9.0-amzn-0 | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 | 
| Livy | 0.7.1-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.1 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.261-amzn-0 | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 
| Spark | 2.4.8-amzn-0 | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.10.0 | 0.9.0 | 0.9.0 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.34.0 릴리스 정보
<a name="emr-5340-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.34.0에 대한 정보가 포함됩니다. 변경 사항은 5.33.1에 관련됩니다.

최초 릴리스 날짜: 2022년 1월 20일

릴리스 날짜: 2022년 3월 21일

**새로운 기능**
+ **[Managed Scaling] Spark 셔플 데이터 Managed Scaling 최적화** - Amazon EMR 버전 5.34.0 이상 및 EMR 버전 6.4.0 이상에서 Managed Scaling은 이제 Spark 셔플 데이터(Spark가 특정 작업을 수행하기 위해 파티션에 재분배하는 데이터)를 인식합니다. 셔플 작업에 대한 자세한 내용은 [Spark 프로그래밍 안내서](https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-operations) 및 *Amazon EMR 관리 안내서*에서 [Amazon EMR에서 EMR Managed Scaling 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-scaling.html)을 참조하세요.
+ [Hudi] Hudi 구성을 단순화하기 위한 개선 사항. 기본적으로 낙관적 동시성 제어를 비활성화했습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ 이전에는 다중 마스터 클러스터에서 리소스 관리자를 수동으로 다시 시작하면 Zookeeper와 같은 Amazon EMR 클러스터 내 대몬(daemon)이 Zookeeper znode 파일에서 이전에 해제되거나 손실된 노드를 모두 다시 로드했습니다. 이로 인해 특정 상황에서 기본 한도가 초과되었습니다. 이제 Amazon EMR은 Zookeeper 파일에서 1시간 넘게 경과된 해제되거나 손실된 노드 레코드를 제거하고 내부 한도를 늘렸습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ Zeppelin이 버전 0.10.0으로 업그레이드되었습니다.
+ Livy 수정 - 0.7.1로 업그레이드됨
+ Spark 성능 개선 - EMR 5.34.0에서 특정 Spark 구성 값이 재정의되면 이기종 실행기가 비활성화됩니다.
+ WebHDFS 및 HttpFS 서버는 기본적으로 비활성화됩니다. Hadoop 구성(`dfs.webhdfs.enabled`)을 사용하여 WebHDFS를 다시 활성화할 수 있습니다. HttpFS 서버는 `sudo systemctl start hadoop-httpfs`를 사용하여 시작할 수 있습니다.

**알려진 문제**
+ Livy 사용자 가장과 함께 사용되는 Amazon EMR Notebooks 기능은 기본적으로 HttpFS 가 비활성화되었기 때문에 작동하지 않습니다. 이 경우 EMR 노트북은 Livy 가장 기능이 활성화된 클러스터에 연결할 수 없습니다. 해결 방법은 클러스터에 EMR 노트북을 연결하기 전에 `sudo systemctl start hadoop-httpfs`를 사용하여 HttpFS 서버를 시작하는 것입니다.
+ Apache Hadoop HttpFS 서버는 기본적으로 비활성화되어 있기 때문에 Amazon EMR 6.4.0에서는 Hue 쿼리가 작동하지 않습니다. Amazon EMR 6.4.0에서 Hue를 사용하려면 `sudo systemctl start hadoop-httpfs`를 사용하여 Amazon EMR 프라이머리 노드에서 HttpFS 서버를 수동으로 시작하거나 [Amazon EMR 단계를 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html)합니다.
+ Livy 사용자 위장과 함께 사용되는 Amazon EMR Notebooks 기능은 기본적으로 HttpFS 가 비활성화되었기 때문에 작동하지 않습니다. 이 경우 EMR 노트북은 Livy 가장 기능이 활성화된 클러스터에 연결할 수 없습니다. 해결 방법은 클러스터에 EMR 노트북을 연결하기 전에 `sudo systemctl start hadoop-httpfs`를 사용하여 HttpFS 서버를 시작하는 것입니다.
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.34.0 구성 요소 버전
<a name="emr-5340-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.14.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.4.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.18.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.7.0 | EMR S3Select 커넥터 | 
| emrfs | 2.48.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.13.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.13.1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-2 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.8-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.8-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.8-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.8-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.8-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.8-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.8-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.9.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.9.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.9.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.9.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.4.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.1-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.13.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.8.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.261-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.261-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.261-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.8-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.8-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.8-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.8-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.10.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.34.0 구성 분류
<a name="emr-5340-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.34.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 5.33.1
<a name="emr-5331-release"></a>

## 5.33.1 애플리케이션 버전
<a name="emr-5331-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.33.1 | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.970 | 1.11.970 | 1.11.890 | 1.11.890 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.12.1 | 1.11.2 | 1.11.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 
| Hadoop | 2.10.1-amzn-1.1 | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 
| Hive | 2.3.7-amzn-4 | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 
| Hudi | 0.7.0-amzn-1 | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.9.0 | 4.8.0 | 4.8.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| JupyterHub | 1.2.2 | 1.2.2 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 
| Spark | 2.4.7-amzn-1.1 | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.4.1 | 2.3.1 | 2.3.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.9.0 | 0.9.0 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.33.1 릴리스 정보
<a name="emr-5331-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.33.0/5.33.1에 대한 정보가 포함됩니다. 변경 사항은 5.32.0에 관련됩니다.

최초 릴리스 날짜: 2021년 4월 19일

최종 업데이트 날짜: 2021년 8월 9일

**업그레이드**
+ Amazon Glue 커넥터를 버전 1.15.0으로 업그레이드함
+ 버전 1.11.970 AWS SDK for Java 으로 업그레이드됨
+ EmrFS를 버전 2.46.0으로 업그레이드함
+ EMR Goodies를 버전 2.14.0으로 업그레이드함
+ EMR Record Server를 버전 1.9.0으로 업그레이드함
+ EMR S3 Dist CP를 버전 2.18.0으로 업그레이드함
+ EMR Secret Agent를 버전 1.8.0으로 업그레이드함
+ Flink를 버전 1.12.1로 업그레이드함
+ Hadoop을 버전 2.10.1-amzn-1로 업그레이드함
+ Hive를 버전 2.3.7-amzn-4로 업그레이드함
+ Hudi를 버전 0.7.0으로 업그레이드함
+ Hue를 버전 4.9.0으로 업그레이드함
+ OpenCV를 버전 4.5.0으로 업그레이드함
+ Presto를 버전 0.245.1-amzn-0으로 업그레이드함
+ R을 버전 4.0.2로 업그레이드함
+ Spark를 버전 2.4.7-amzn-1로 업그레이드함
+ TensorFlow를 버전 2.4.1로 업그레이드함
+ Zeppelin을 버전 0.9.0으로 업그레이드함

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ **Apache YARN 타임라인 서버 버전 1 및 1.5 성능 문제를 해결하도록 클러스터 구성**

  Apache YARN 타임라인 서버 버전 1 및 1.5는 매우 자주 사용되는 대규모 EMR 클러스터, 특히 Amazon EMR의 기본 설정인 `yarn.resourcemanager.system-metrics-publisher.enabled=true`에서 성능 문제를 일으킬 수 있습니다. 오픈 소스 YARN 타임라인 서버 v2는 YARN 타임라인 서버 확장성과 관련된 성능 문제를 해결했습니다.

  이 문제의 다른 해결 방법은 다음과 같습니다.
  + yarn-site.xml 파일에서 yarn.resourcemanager.system-metrics-publisher.enabled=false를 구성합니다.
  + 아래 설명에 따라 클러스터를 생성할 때 이 문제를 해결하는 수정 사항을 활성화합니다.

  다음 Amazon EMR 릴리스에는 이 YARN 타임라인 서버 성능 문제에 대한 수정 사항이 포함되어 있습니다.

  EMR 5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x

  위에 지정된 Amazon EMR 릴리스에서 수정 사항을 활성화하려면 [`aws emr create-cluster` 명령 파라미터](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html)(`--configurations file://./configurations.json`)를 사용하여 전달되는 구성 JSON 파일에서 이러한 속성을 `true`로 설정합니다. 또는 [재구성 콘솔 UI](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html)를 사용하여 수정 사항을 활성화할 수도 있습니다.

  configurations.json 파일 내용 예제:

  ```
  [
  {
  "Classification": "yarn-site",
  "Properties": {
  "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true",
  "yarn.resourcemanager.system-metrics-publisher.enabled": "true"
  },
  "Configurations": []
  }
  ]
  ```
+ 이제 Spark 삽입 쿼리를 위해 Hive 메타스토어에서 파티션 위치를 가져올 때 Spark 런타임이 더 빨라졌습니다.
+ 업그레이드된 구성 요소 버전. 구성 요소 버전 목록은 이 안내서에서 [Amazon EMR 릴리스 정보](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html)를 참조하세요.
+ 각 새 클러스터에 AWS Java SDK 번들을 설치했습니다. 개별 구성 요소 jar 대신 모든 서비스 SDK와 해당 종속 항목을 포함하는 단일 jar입니다. 자세한 내용은 [Java SDK Bundled Dependency](https://aws.amazon.com/blogs/developer/java-sdk-bundle/)를 참조하세요.
+ 이전 Amazon EMR 릴리스에서 Managed Scaling 문제를 수정하고 애플리케이션 장애 비율을 크게 줄일 수 있도록 개선했습니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).

**새로운 기능**
+ Amazon EMR은 공유 데이터 레이크에 대한 액세스를 쉽게 관리할 수 있는 Amazon S3의 기능인 Amazon S3 액세스 포인트를 지원합니다. Amazon S3 액세스 포인트 별칭을 사용하면 Amazon EMR에서 대규모 데이터 액세스를 간소화할 수 있습니다. Amazon EMR을 사용할 수 있는 모든 리전에서 추가 비용 없이 모든 버전의 Amazon EMR에서 Amazon S3 액세스 포인트를 사용할 수 있습니다. AWS Amazon S3 액세스 포인트 및 액세스 포인트 별칭에 대한 자세한 내용은 *Amazon S3 사용 설명서*에서 [액세스 포인트에 버킷 스타일 별칭 사용](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points-alias.html)을 참조하세요.
+ Amazon EMR-5.33에서는 새로운 Amazon EC2 인스턴스 유형(c5a, c5ad, c6gn, c6gd, m6gd, d3, d3en, m5zn, r5b, r6gd)을 지원합니다. [지원되는 인스턴스 유형](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-supported-instance-types.html)을 참조하세요.

**알려진 문제**
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Amazon EMR 6.3.0 및 6.2.0 프라이빗 서브넷 클러스터의 경우 Ganglia 웹 UI에 액세스할 수 없습니다. '액세스 거부됨(403)' 오류가 발생합니다. Spark, Hue, JupyterHub, Zeppelin, Livy, Tez와 같은 다른 웹 UI는 정상적으로 작동합니다. 퍼블릭 서브넷 클러스터에서 Ganglia 웹 UI 액세스도 정상적으로 작동합니다. 이 문제를 해결하려면 `sudo systemctl restart httpd`를 사용하여 프라이머리 노드에서 httpd 서비스를 다시 시작합니다. 이 문제는 Amazon EMR 6.4.0에서 수정되었습니다.
+ 
**중요**  
Amazon Linux 또는 Amazon Linux 2 Amazon Machine Image(AMI)를 실행하는 EMR 클러스터는 기본 Amazon Linux 동작을 사용하며, 재부팅이 필요한 중요한 핵심 커널 업데이트를 자동으로 다운로드하여 설치하지는 않습니다. 이는 기본 Amazon Linux AMI를 실행하는 다른 Amazon EC2 인스턴스와 동일한 동작입니다. Amazon EMR 릴리스가 출시된 후 재부팅이 필요한 새로운 Amazon Linux 소프트웨어 업데이트(예: 커널, NVIDIA, CUDA 업데이트)를 사용할 수 있게 되면 기본 AMI를 실행하는 EMR 클러스터 인스턴스는 해당 업데이트를 자동으로 다운로드하여 설치하지 않습니다. 커널 업데이트를 받으려면 [최신 Amazon Linux AMI를 사용](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html)하도록 [Amazon EMR AMI를 사용자 지정](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)할 수 있습니다.
+  AWS Ranger 통합 옵션을 지정하는 보안 구성을 생성하는 콘솔 지원은 현재 GovCloud 리전에서 지원되지 않습니다. 보안 구성은 CLI를 사용하여 수행할 수 있습니다. *Amazon EMR 관리 안내서*에서 [EMR 보안 구성 생성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger-security-config.html)을 참조하세요.
+ 범위가 지정된 관리형 정책: AWS 모범 사례에 맞게 Amazon EMR은 더 이상 사용되지 않을 정책을 대체하기 위해 v2 EMR 범위 기본 관리형 정책을 도입했습니다. [Amazon EMR 관리형 정책](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)을 참조하세요.
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.33.1 구성 요소 버전
<a name="emr-5331-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.14.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.2.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.18.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.6.0 | EMR S3Select 커넥터 | 
| emrfs | 2.46.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.12.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.12.1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-1.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-1.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-1.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-1.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-1.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-1.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-1.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-1.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-1.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-1.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-1.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.7-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.7-amzn-4 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.7-amzn-4 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.7-amzn-4 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.7-amzn-4 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.7-amzn-4 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.7-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.7.0-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.7.0-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.7.0-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.9.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.2.2 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.7.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.245.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.245.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.245.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.7-amzn-1.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.7-amzn-1.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.7-amzn-1.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.7-amzn-1.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.33.1 구성 분류
<a name="emr-5331-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.33.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 5.33.0
<a name="emr-5330-release"></a>

## 5.33.0 애플리케이션 버전
<a name="emr-5330-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.33.0 | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.970 | 1.11.890 | 1.11.890 | 1.11.852 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.12.1 | 1.11.2 | 1.11.2 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 
| Hadoop | 2.10.1-amzn-1 | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 
| Hive | 2.3.7-amzn-4 | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 
| Hudi | 0.7.0-amzn-1 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.9.0 | 4.8.0 | 4.8.0 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 |  -  | 
| JupyterHub | 1.2.2 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.245.1-amzn-0 | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 
| Spark | 2.4.7-amzn-1 | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.4.1 | 2.3.1 | 2.3.1 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.9.0 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.33.0 릴리스 정보
<a name="emr-5330-relnotes"></a>

## 5.33.0 구성 요소 버전
<a name="emr-5330-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.14.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.2.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.18.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.6.0 | EMR S3Select 커넥터 | 
| emrfs | 2.46.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.12.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.12.1 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.7-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.7-amzn-4 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.7-amzn-4 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.7-amzn-4 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.7-amzn-4 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.7-amzn-4 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.7-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.7.0-amzn-1 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.7.0-amzn-1 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.7.0-amzn-1 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.9.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.2.2 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.7.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.5.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.245.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.245.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.245.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 4.0.2 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.7-amzn-1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.7-amzn-1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.7-amzn-1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.7-amzn-1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.4.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.9.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.33.0 구성 분류
<a name="emr-5330-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.33.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-session | Kubernetes 및 Yarn 세션에 대한 Flink log4j-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zeppelin-site | zeppelin-site.xml에서 구성 설정을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 5.32.1
<a name="emr-5321-release"></a>

## 5.32.1 애플리케이션 버전
<a name="emr-5321-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.32.1 | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.890 | 1.11.890 | 1.11.852 | 1.11.852 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.2 | 1.11.0 | 1.11.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 
| Hadoop | 2.10.1-amzn-0.1 | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 
| Hive | 2.3.7-amzn-3 | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 
| Hue | 4.8.0 | 4.8.0 | 4.7.1 | 4.7.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 | 2.1.0 |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.7.0 | 1.6.0 | 1.6.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.240.1-amzn-0 | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 
| Spark | 2.4.7-amzn-0.1 | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.3.1 | 2.1.0 | 2.1.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.32.1 릴리스 정보
<a name="emr-5321-relnotes"></a>

이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).

**알려진 문제**
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.32.1 구성 요소 버전
<a name="emr-5321-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.13.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.1.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.17.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.6.0 | EMR S3Select 커넥터 | 
| emrfs | 2.45.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.11.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.11.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-0.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-0.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-0.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-0.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-0.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-0.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-0.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-0.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-0.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-0.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-0.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.7-amzn-3 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.7-amzn-3 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.7-amzn-3 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.7-amzn-3 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.7-amzn-3 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.7-amzn-3 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.7-amzn-3 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.6.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.6.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.6.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.8.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.7.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 이상 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.240.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.240.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.240.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.7-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.7-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.7-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.7-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.3.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.32.1 구성 분류
<a name="emr-5321-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.32.1 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 5.32.0
<a name="emr-5320-release"></a>

## 5.32.0 애플리케이션 버전
<a name="emr-5320-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyter-enterprise-gateway.readthedocs.io/en/latest/](https://jupyter-enterprise-gateway.readthedocs.io/en/latest/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.32.0 | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.890 | 1.11.852 | 1.11.852 | 1.11.759 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.2 | 1.11.0 | 1.11.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.1-amzn-0 | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 
| Hive | 2.3.7-amzn-3 | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 
| Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway | 2.1.0 |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.240.1-amzn-0 | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 
| Spark | 2.4.7-amzn-0 | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.32.0 릴리스 정보
<a name="emr-5320-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.32.0에 대한 정보가 포함됩니다. 변경 사항은 5.31.0에 관련됩니다.

최초 릴리스 날짜: 2021년 1월 8일

**업그레이드**
+ Amazon Glue 커넥터를 버전 1.14.0으로 업그레이드함
+ Amazon SageMaker Spark SDK를 버전 1.4.1로 업그레이드함
+ 버전 1.11.890 AWS SDK for Java 으로 업그레이드됨
+ EMR DynamoDB Connector 버전 4.16.0을 업그레이드함
+ EMRFS를 버전 2.45.0으로 업그레이드함
+ EMR Log Analytics Metric을 버전 1.18.0으로 업그레이드함
+ EMR MetricsAndEventsApiGateway 클라이언트를 버전 1.5.0으로 업그레이드함
+ EMR Record Server를 버전 1.8.0으로 업그레이드함
+ EMR S3 Dist CP를 버전 2.17.0으로 업그레이드함
+ EMR Secret Agent를 버전 1.7.0으로 업그레이드함
+ Flink를 버전 1.11.2로 업그레이드함
+ Hadoop을 버전 2.10.1-amzn-0으로 업그레이드함
+ Hive를 버전 2.3.7-amzn-3으로 업그레이드함
+ Hue를 버전 4.8.0으로 업그레이드함
+ Mxnet을 버전 1.7.0으로 업그레이드함
+ OpenCV를 버전 4.4.0으로 업그레이드함
+ Presto를 버전 0.240.1-amzn-0으로 업그레이드함
+ Spark를 버전 2.4.7-amzn-0으로 업그레이드함
+ TensorFlow를 버전 2.3.1로 업그레이드함

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ 업그레이드된 구성 요소 버전.
+ 구성 요소 버전 목록은 이 안내서에서 [Amazon EMR 릴리스 정보](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-release-components.html)를 참조하세요.

**새로운 기능**
+ Amazon EMR 5.32.0 및 6.5.0부터 Apache Spark의 동적 실행기 크기 조정이 기본적으로 활성화됩니다. 이 기능을 켜거나 끄기 위해 `spark.yarn.heterogeneousExecutors.enabled` 구성 파라미터를 사용할 수 있습니다.
+ 인스턴스 메타데이터 서비스(IMDS) V2 지원 상태: Amazon EMR 5.23.1, 5.27.1 및 5.32 이상의 구성 요소는 모든 IMDS 직접 호출에 IMDSv2를 사용합니다. 애플리케이션 코드에서 IMDS를 직접 호출하는 경우, IMDSv1 및 IMDSv2를 모두 사용하거나, 추가 보안을 위해 IMDSv2만 사용하도록 IMDS를 구성할 수 있습니다. 다른 5.x EMR 릴리스의 경우 IMDSv1을 비활성화하면 클러스터 시작 오류가 발생합니다.
+ Amazon EMR 5.32.0부터 Apache Ranger와 기본적으로 통합되는 클러스터를 시작할 수 있습니다. Apache Ranger는 Hadoop 플랫폼 전반에서 포괄적인 데이터 보안을 지원, 모니터링 및 관리할 수 있는 오픈 소스 프레임워크입니다. 자세한 내용은 [Apache Ranger](https://ranger.apache.org/)를 참조하세요. 기본 통합을 통해 자체 Apache Ranger를 이용해 Amazon EMR에서 세분화된 데이터 액세스 제어를 적용할 수 있습니다. *Amazon EMR 릴리스 안내서*에서 [Amazon EMR과 Apache Ranger 통합](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger.html)을 참조하세요.
+ Amazon EMR 릴리스 5.32.0은 Amazon EMR on EKS를 지원합니다. EMR on EKS를 시작하는 방법에 대한 자세한 내용은 [Amazon EMR on EKS란 무엇인가요?](https://docs.aws.amazon.com/emr/latest/EMR-on-EKS-DevelopmentGuide/emr-eks.html)를 참조하세요.
+ Amazon EMR 릴리스 5.32.0은 Amazon EMR Studio(평가판)를 지원합니다. EMR Studio를 시작하는 방법에 대한 자세한 내용은 [Amazon EMR Studio(평가판)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-studio.html)을 참조하세요.
+ 범위가 지정된 관리형 정책: AWS 모범 사례에 맞게 Amazon EMR은 더 이상 사용되지 않을 정책을 대체하기 위해 v2 EMR 범위 기본 관리형 정책을 도입했습니다. [Amazon EMR 관리형 정책](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-iam-policies.html)을 참조하세요.

**알려진 문제**
+ Amazon EMR 6.3.0 및 6.2.0 프라이빗 서브넷 클러스터의 경우 Ganglia 웹 UI에 액세스할 수 없습니다. '액세스 거부됨(403)' 오류가 발생합니다. Spark, Hue, JupyterHub, Zeppelin, Livy, Tez와 같은 다른 웹 UI는 정상적으로 작동합니다. 퍼블릭 서브넷 클러스터에서 Ganglia 웹 UI 액세스도 정상적으로 작동합니다. 이 문제를 해결하려면 `sudo systemctl restart httpd`를 사용하여 프라이머리 노드에서 httpd 서비스를 다시 시작합니다. 이 문제는 Amazon EMR 6.4.0에서 수정되었습니다.
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ 
**중요**  
Amazon Linux 또는 Amazon Linux 2 Amazon Machine Image(AMI)를 실행하는 EMR 클러스터는 기본 Amazon Linux 동작을 사용하며, 재부팅이 필요한 중요한 핵심 커널 업데이트를 자동으로 다운로드하여 설치하지는 않습니다. 이는 기본 Amazon Linux AMI를 실행하는 다른 Amazon EC2 인스턴스와 동일한 동작입니다. Amazon EMR 릴리스가 출시된 후 재부팅이 필요한 새로운 Amazon Linux 소프트웨어 업데이트(예: 커널, NVIDIA, CUDA 업데이트)를 사용할 수 있게 되면 기본 AMI를 실행하는 EMR 클러스터 인스턴스는 해당 업데이트를 자동으로 다운로드하여 설치하지 않습니다. 커널 업데이트를 받으려면 [최신 Amazon Linux AMI를 사용](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/finding-an-ami.html)하도록 [Amazon EMR AMI를 사용자 지정](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)할 수 있습니다.
+  AWS Ranger 통합 옵션을 지정하는 보안 구성을 생성하는 콘솔 지원은 현재 GovCloud 리전에서 지원되지 않습니다. 보안 구성은 CLI를 사용하여 수행할 수 있습니다. *Amazon EMR 관리 안내서*에서 [EMR 보안 구성 생성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-ranger-security-config.html)을 참조하세요.
+ Amazon EMR 5.31.0 또는 5.32.0을 사용하는 클러스터에서 AtRestEncryption 또는 HDFS 암호화를 활성화하면 Hive 쿼리에서 다음과 같은 런타임 예외가 발생합니다.

  ```
  TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  ```
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.32.0 구성 요소 버전
<a name="emr-5320-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.16.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.13.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.1.0 | Jupyter Enterprise Gateway가 포함된 EMR 노트북용 Conda 환경 | 
| emr-s3-dist-cp | 2.17.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.6.0 | EMR S3Select 커넥터 | 
| emrfs | 2.45.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.11.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.11.2 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.1-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.1-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.1-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.1-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.1-amzn-0 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.1-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.1-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.1-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.1-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.1-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.1-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.7-amzn-3 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.7-amzn-3 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.7-amzn-3 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.7-amzn-3 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.7-amzn-3 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.7-amzn-3 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.7-amzn-3 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.6.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.6.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.6.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.8.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.7.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.68 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 10.1.243 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.240.1-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.240.1-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.240.1-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.7-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.7-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.7-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.7-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.3.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.32.0 구성 분류
<a name="emr-5320-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.

재구성 작업은 실행 중인 클러스터의 인스턴스 그룹에 대한 구성을 지정할 때 수행됩니다. Amazon EMR은 사용자가 수정한 분류에 대한 재구성 작업만 시작합니다. 자세한 내용은 [실행 중인 클러스터에서 인스턴스 그룹 재구성](emr-configure-apps-running-cluster.md) 단원을 참조하십시오.


**emr-5.32.0 분류**  

| 분류 | 설명 | 재구성 작업 | 
| --- | --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | Restarts the ResourceManager service. | 
| container-executor | Hadoop YARN container-executor.cfg 파일에서 값을 변경합니다. | Not available. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| docker-conf | Docker 관련 설정을 변경합니다. | Not available. | 
| emrfs-site | EMRFS 설정을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | Restarts Flink history server. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | Not available. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | Restarts Flink history server. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | Not available. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | Not available. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | Not available. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | Should not be reconfigured. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | Restarts Hive HCatalog Server. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | Restarts Hive WebHCat Server. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-env | Hive 환경에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | Not available. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | Restarts HiveServer2 and HiveMetastore. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | Not available. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop Httpfs service. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | Restarts Hadoop-KMS service. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop-KMS and Ranger-KMS service. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | Not available. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | Not available. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | Not available. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | Not available. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-env | Livy 환경에서 값을 변경합니다. | Restarts Livy Server. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | Restarts Livy Server. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | Restarts Hadoop MapReduce-HistoryServer. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | Not available. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | Not available. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | Restarts Phoenix-QueryServer. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | Not available. | 
| pig-env | Pig 환경에서 값을 변경합니다. | Not available. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | Restarts Oozie. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | Restarts Presto-Server. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | Not available. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | Restarts Ranger KMS Server. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | Not available. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | Not available. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | Restarts EMR record server. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | This property modifies spark-defaults. See actions there. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-env | Spark 환경에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | Not available. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | Restarts Spark history server and Spark thrift server. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | Not available. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | Not available. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | Restarts Oozie. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | Restarts Zeppelin. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | Restarts Zookeeper server. | 

# Amazon EMR 릴리스 5.31.1
<a name="emr-5311-release"></a>

## 5.31.1 애플리케이션 버전
<a name="emr-5311-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.31.1 | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.852 | 1.11.852 | 1.11.759 | 1.11.759 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.11.0 | 1.10.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.0-amzn-0.1 | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 
| Hive | 2.3.7-amzn-1 | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 
| Hue | 4.7.1 | 4.7.1 | 4.6.0 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-0 | 0.238.3-amzn-0 | 0.232 | 0.232 | 
| Spark | 2.4.6-amzn-0.1 | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.31.1 릴리스 정보
<a name="emr-5311-relnotes"></a>

이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).

**알려진 문제**
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.31.1 구성 요소 버전
<a name="emr-5311-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.15.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.13.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.15.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.6.0 | EMR S3Select 커넥터 | 
| emrfs | 2.43.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.11.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.11.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.0-amzn-0.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.0-amzn-0.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.0-amzn-0.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.0-amzn-0.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.0-amzn-0.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.0-amzn-0.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.0-amzn-0.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.0-amzn-0.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.0-amzn-0.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.0-amzn-0.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.0-amzn-0.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.7-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.7-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.7-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.7-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.7-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.7-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.7-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.6.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.6.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.6.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.7.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.6.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 이상 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.3.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.238.3-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.238.3-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.238.3-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.6-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.6-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.6-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.6-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.1.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.31.1 구성 분류
<a name="emr-5311-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.31.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.31.0
<a name="emr-5310-release"></a>

## 5.31.0 애플리케이션 버전
<a name="emr-5310-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.31.0 | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.852 | 1.11.759 | 1.11.759 | 1.11.759 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.11.0 | 1.10.0 | 1.10.0 | 1.10.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.13 | 
| HCatalog | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hadoop | 2.10.0-amzn-0 | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 
| Hive | 2.3.7-amzn-1 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 
| Hudi | 0.6.0-amzn-0 | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 
| Hue | 4.7.1 | 4.6.0 | 4.6.0 | 4.6.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 
| MXNet | 1.6.0 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.2.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.238.3-amzn-0 | 0.232 | 0.232 | 0.232 | 
| Spark | 2.4.6-amzn-0 | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 2.1.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.31.0 릴리스 정보
<a name="emr-5310-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.31.0에 대한 정보가 포함됩니다. 변경 사항은 5.30.1에 관련됩니다.

최초 릴리스 날짜: 2020년 10월 9일

최종 업데이트 날짜: 2020년 10월 15일

**업그레이드**
+ Amazon Glue 커넥터를 버전 1.13.0으로 업그레이드함
+ Amazon SageMaker Spark SDK를 버전 1.4.0으로 업그레이드함
+ Amazon Kinesis 커넥터를 버전 3.5.9로 업그레이드함 
+ 버전 1.11.852 AWS SDK for Java 로 업그레이드됨
+ Bigtop-tomcat을 버전 8.5.56으로 업그레이드함
+ EMR FS를 버전 2.43.0으로 업그레이드함
+ EMR MetricsAndEventsApiGateway 클라이언트를 버전 1.4.0으로 업그레이드함
+ EMR S3 Dist CP를 버전 2.15.0으로 업그레이드함
+ EMR S3 Select를 버전 1.6.0으로 업그레이드함
+ Flink를 버전 1.11.0으로 업그레이드함
+ Hadoop을 버전 2.10.0으로 업그레이드함
+ Hive를 버전 2.3.7로 업그레이드함
+ Hudi를 버전 0.6.0으로 업그레이드함
+ Hue를 버전 4.7.1로 업그레이드함
+ JupyterHub가 버전 1.1.0으로 업그레이드됨
+ Mxnet을 버전 1.6.0으로 업그레이드함
+ OpenCV를 버전 4.3.0으로 업그레이드함
+ Presto를 버전 0.238.3으로 업그레이드함
+ TensorFlow를 버전 2.1.0으로 업그레이드함

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ [Hive 열 통계](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-ColumnStatistics)는 Amazon EMR 버전 5.31.0 이상에서 지원됩니다.
+ 업그레이드된 구성 요소 버전.
+ Amazon EMR 5.31.0에서 EMRFS S3EC V2 지원. S3 Java SDK 릴리스 1.11.837 이상에서 암호화 클라이언트 버전 2(S3EC V2)가 다양한 보안 개선 사항과 함께 도입되었습니다. 자세한 내용은 다음을 참조하세요.
  + S3 블로그 게시물: [Updates to the Amazon S3 encryption client](https://aws.amazon.com/blogs/developer/updates-to-the-amazon-s3-encryption-client/).
  + AWS SDK for Java 개발자 안내서: [암호화 및 복호화 클라이언트를 V2로 마이그레이션](https://docs.aws.amazon.com/sdk-for-java/v1/developer-guide/s3-encryption-migration.html#s3-cse-update-code)합니다.
  + EMR 관리 안내서: [Amazon S3 클라이언트 측 암호화](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-emrfs-encryption-cse.html)

  암호화 클라이언트 V1은 이전 버전과의 호환성을 위해 SDK에서 계속 사용할 수 있습니다.

**새로운 기능**
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ Amazon EMR 5.31.0에서는 Lake Formation과 통합되는 클러스터를 시작할 수 있습니다. 이 통합은 AWS Glue 데이터 카탈로그의 데이터베이스 및 테이블에 대한 세분화된 열 수준 데이터 필터링을 제공합니다. 또한 엔터프라이즈 자격 증명 시스템에서 EMR 노트북 또는 Apache Zeppelin에 연동된 Single Sign-On을 사용할 수도 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [Amazon EMR과 AWS Lake Formation통합](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lake-formation.html)을 참조하세요.

  Lake Formation을 사용하는 Amazon EMR은 현재 미국 동부(오하이오 및 버지니아 북부), 미국 서부(캘리포니아 북부 및 오레곤), 아시아 태평양(뭄바이, 서울, 싱가포르, 시드니 및 도쿄), 캐나다(중부), 유럽(프랑크푸르트, 아일랜드, 런던, 파리 및 스톡홀름), 남아메리카(상파울루)의 16개 AWS 리전에서 사용할 수 있습니다.

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.
+ Amazon EMR 5.31.0 또는 5.32.0을 사용하는 클러스터에서 AtRestEncryption 또는 HDFS 암호화를 활성화하면 Hive 쿼리에서 다음과 같은 런타임 예외가 발생합니다.

  ```
  TaskAttempt 3 failed, info=[Error: Error while running task ( failure ) : attempt_1604112648850_0001_1_01_000000_3:java.lang.RuntimeException: java.lang.RuntimeException: Hive Runtime Error while closing operators: java.io.IOException: java.util.ServiceConfigurationError: org.apache.hadoop.security.token.TokenIdentifier: Provider org.apache.hadoop.hbase.security.token.AuthenticationTokenIdentifier not found
  ```
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.31.0 구성 요소 버전
<a name="emr-5310-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.4.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.15.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.13.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.15.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.6.0 | EMR S3Select 커넥터 | 
| emrfs | 2.43.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.11.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| flink-jobmanager-config | 1.11.0 | Apache Flink JobManager에 대한 EMR 노드에서 리소스를 관리합니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.10.0-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.10.0-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.10.0-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.10.0-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.10.0-amzn-0 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.10.0-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.10.0-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.10.0-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.10.0-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.10.0-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.10.0-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.7-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.7-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.7-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.7-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.7-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.7-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.7-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.6.0-amzn-0 | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-spark | 0.6.0-amzn-0 | Hudi와 함께 Spark를 실행하기 위한 번들 라이브러리. | 
| hudi-presto | 0.6.0-amzn-0 | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.7.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.6.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 4.3.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.238.3-amzn-0 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.238.3-amzn-0 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.238.3-amzn-0 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.6-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.6-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.6-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.6-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 2.1.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.31.0 구성 분류
<a name="emr-5310-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.31.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.30.2
<a name="emr-5302-release"></a>

## 5.30.2 애플리케이션 버전
<a name="emr-5302-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.30.2 | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.759 | 1.11.759 | 1.11.759 | 1.11.682 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.10.0 | 1.9.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.13 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 
| Hadoop | 2.8.5-amzn-6.1 | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.6.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.232 | 0.227 | 
| Spark | 2.4.5-amzn-0.1 | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.2 릴리스 정보
<a name="emr-5302-relnotes"></a>

이 릴리스는 Amazon EMR 조정에서 클러스터를 성공적으로 스케일 업 또는 스케일 다운하지 못하거나 애플리케이션 장애가 발생한 경우 이 기능과 관련된 문제를 수정하기 위한 릴리스입니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR 클러스터 내 대몬(daemon)이 YARN 노드 상태 및 HDFS 노드 상태 수집과 같은 상태 확인 활동을 실행할 때 활용도가 높은 대규모 클러스터에 대한 조정 요청이 실패하는 문제를 수정했습니다. 이는 클러스터 내 대몬(daemon)이 내부 Amazon EMR 구성 요소로 노드의 상태 데이터를 전달할 수 없었기 때문에 발생했습니다.
+ 조정 작업 중에 신뢰성을 개선하기 위해 IP 주소를 재사용할 때 노드 상태를 올바르게 추적하도록 EMR 클러스터 내 대몬(daemon)을 개선했습니다.
+ [SPARK-29683](https://issues.apache.org/jira/browse/SPARK-29683). Spark에서는 사용 가능한 모든 노드가 거부 목록에 있다고 가정했기 때문에 클러스터 스케일 다운 중에 작업 실패가 발생하는 문제를 수정했습니다.
+ [YARN-9011](https://issues.apache.org/jira/browse/YARN-9011). 클러스터를 스케일 업하거나 스케일 다운하려고 할 때 YARN 서비스 해제의 경쟁 조건으로 인해 작업 실패가 발생하는 문제를 수정했습니다.
+ Amazon EMR 클러스터 내 대몬(daemon)과 YARN 및 HDFS 사이에서 노드 상태가 항상 일관되도록 보장함으로써 클러스터 조정 중 단계 또는 작업이 실패하는 문제를 수정했습니다.
+ Kerberos 인증으로 활성화된 Amazon EMR 클러스터에서 스케일 다운 및 단계 제출과 같은 클러스터 작업이 실패하는 문제를 수정했습니다. 이는 Amazon EMR 클러스터 내 대몬(daemon)이 프라이머리 노드에서 실행되는 HDFS 및 YARN과 안전하게 통신하는 데 필요한 Kerberos 티켓을 갱신하지 않았기 때문입니다.
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ 이제 Amazon Linux 리포지토리에서 HTTPS가 기본적으로 활성화됩니다. Amazon S3 VPCE 정책을 사용하여 특정 버킷에 대한 액세스를 제한하는 경우 새 Amazon Linux 버킷 ARN `arn:aws:s3:::amazonlinux-2-repos-$region/*`을 정책에 추가해야 합니다(`$region`을 엔드포인트가 있는 리전으로 바꿈). 자세한 내용은 AWS 토론 포럼에서이 주제를 참조하세요. [공지 사항: 이제 Amazon Linux 2는 패키지 리포지토리에 연결하는 동안 HTTPS를 사용하는 기능을 지원합니다](https://forums.aws.amazon.com/ann.jspa?annID=8528).

**알려진 문제**
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.30.2 구성 요소 버전
<a name="emr-5302-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.13.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.5.0 | EMR S3Select 커넥터 | 
| emrfs | 2.40.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.10.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-6.1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6.1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-6.1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6.1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6.1 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-6.1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-6.1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-6.1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6.1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6.1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6.1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.6-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.6-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.6-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.6-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.6-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.2-incubating | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.2-incubating | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.6.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.5.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 이상 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.232 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.232 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.232 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.5-amzn-0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.5-amzn-0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.5-amzn-0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.5-amzn-0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.30.2 구성 분류
<a name="emr-5302-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.30.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.30.1
<a name="emr-5301-release"></a>

## 5.30.1 애플리케이션 버전
<a name="emr-5301-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.759 | 1.11.759 | 1.11.682 | 1.11.659 | 
| Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.232 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.1 릴리스 정보
<a name="emr-5301-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.30.1에 대한 정보가 포함됩니다. 변경 사항은 5.30.0에 관련됩니다.

최초 릴리스 날짜: 2020년 6월 30일

최종 업데이트 날짜: 2020년 8월 24일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 최신 Amazon EMR 릴리스에서는 Amazon EMR의 이전 AL2에서 더 낮은 '최대 열린 파일' 한도와 관련된 문제가 수정되었습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 이제 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다.
+ 인스턴스 컨트롤러 프로세스에서 무한한 수의 프로세스를 생성하는 문제가 수정되었습니다.
+ Hue에서 Hive 쿼리를 실행할 수 없어서 'database is locked' 메시지를 표시하고 쿼리가 실행되지 않는 문제가 수정되었습니다.
+ EMR 클러스터에서 더 많은 작업을 동시에 실행할 수 있도록 Spark 문제가 수정되었습니다.
+ Jupyter 서버에서 'too many files open error'를 발생시키는 Jupyter Notebook 문제가 수정되었습니다.
+ 클러스터 시작 시간 관련 문제가 수정되었습니다.

**새로운 기능**
+ Amazon EMR 버전 6.x 및 EMR 버전 5.30.1 이상에서 Tez UI 및 YARN 타임라인 서버의 영구 애플리케이션 인터페이스를 사용할 수 있습니다. 영구 애플리케이션 기록에 대한 원클릭 링크 액세스를 사용하면 SSH 연결을 통해 웹 프록시를 설정하지 않고도 작업 기록에 빠르게 액세스할 수 있습니다. 활성 클러스터와 종료된 클러스터에 대한 로그는 애플리케이션 종료 후 30일 동안 사용할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [영구 애플리케이션 사용자 인터페이스 보기](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html)를 참조하세요.
+ EMR 노트북 실행 API는 스크립트 또는 명령줄을 통해 EMR 노트북을 실행하는 데 사용할 수 있습니다. AWS 콘솔 없이 EMR 노트북 실행을 시작, 중지, 나열 및 설명할 수 있으므로 EMR 노트북을 프로그래밍 방식으로 제어할 수 있습니다. 파라미터화된 노트북 셀을 사용하면 새로운 파라미터 값 세트마다 노트북의 복사본을 만들지 않고도 노트북에 다양한 파라미터 값을 전달할 수 있습니다. [EMR API 작업](https://docs.aws.amazon.com/emr/latest/APIReference/API_Operations.html)을 참조하세요. 샘플 코드는 [EMR Notebooks를 프로그래밍 방식으로 실행하는 샘플 명령](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-headless.html)을 참조하세요.

**알려진 문제**
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **EMR Notebooks**

  클러스터 프라이머리 노드에 커널과 추가 Python 라이브러리를 설치할 수 있는 기능은 EMR 버전 5.30.1에서 기본적으로 비활성화됩니다. 이 기능에 대한 자세한 내용은 [클러스터 프라이머리 노드에 커널 및 Python 라이브러리 설치](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html)를 참조하세요.

  이 기능을 활성화하려면 다음을 수행합니다.

  1. EMR Notebooks의 서비스 역할에 연결된 권한 정책이 다음 작업을 허용하는지 확인합니다.

     `elasticmapreduce:ListSteps`

     자세한 내용은 [EMR 노트북 서비스 역할](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-service-role.html) 단원을 참조하십시오.

  1.  AWS CLI 를 사용하여 다음 예제와 같이 EMR 노트북을 설정하는 클러스터에서 단계를 실행합니다. *us-east-1*을 클러스터가 상주하는 리전으로 바꿉니다. 자세한 내용은 [AWS CLI를 사용하여 클러스터에 단계 추가](https://docs.aws.amazon.com/emr/latest/ManagementGuide/add-step-cli.html)를 참조하세요.

     ```
     aws emr add-steps  --cluster-id MyClusterID --steps Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]
     ```
+ **Managed Scaling**

  Presto가 설치되지 않은 5.30.0 및 5.30.1 클러스터에서 Managed Scaling을 수행하면 애플리케이션 장애가 발생하거나 균일한 인스턴스 그룹 또는 인스턴스 플릿이 `ARRESTED` 상태로 유지될 수 있습니다. 특히 스케일 다운 작업 이후 바로 스케일 업 작업이 수행되는 경우가 이에 해당합니다.

  해결 방법으로 작업에 Presto가 필요하지 않더라도 Amazon EMR 릴리스 5.30.0 및 5.30.1에서 클러스터를 생성할 때 설치할 애플리케이션으로 Presto를 선택합니다.
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.30.1 구성 요소 버전
<a name="emr-5301-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.13.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.5.0 | EMR S3Select 커넥터 | 
| emrfs | 2.40.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.10.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.6-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.6-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.6-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.6-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.6-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.2-incubating | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.2-incubating | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.6.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.5.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.232 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.232 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.232 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.5-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.5-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.5-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.5-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.30.1 구성 분류
<a name="emr-5301-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.30.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.30.0
<a name="emr-5300-release"></a>

## 5.30.0 애플리케이션 버전
<a name="emr-5300-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.759 | 1.11.682 | 1.11.659 | 1.11.659 | 
| Python | 2.7, 3.7 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.10.0 | 1.9.1 | 1.9.0 | 1.9.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.13 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 
| Hadoop | 2.8.5-amzn-6 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 
| Hive | 2.3.6-amzn-2 | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 
| Hudi | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| Hue | 4.6.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.7.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.2.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.232 | 0.227 | 0.227 | 0.227 | 
| Spark | 2.4.5-amzn-0 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.30.0 릴리스 정보
<a name="emr-5300-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.30.0에 대한 정보가 포함됩니다. 변경 사항은 5.29.0에 관련됩니다.

최초 릴리스 날짜: 2020년 5월 13일

최종 업데이트 날짜: 2020년 6월 25일

**업그레이드**
+ 버전 1.11.759 AWS SDK for Java 로 업그레이드됨
+ Amazon SageMaker Spark SDK가 버전 1.3.0으로 업그레이드됨
+ EMR 레코드 서버가 버전 1.6.0으로 업그레이드됨
+ Flink가 버전 1.10.0으로 업그레이드됨
+ Ganglia가 버전 3.7.2로 업그레이드됨
+ HBase가 버전 1.4.13으로 업그레이드됨
+ Hudi가 버전 0.5.2-incubating으로 업그레이드됨
+ Hue가 버전 4.6.0으로 업그레이드됨
+ JupyterHub가 버전 1.1.0으로 업그레이드됨
+ Livy가 버전 0.7.0-incubating으로 업그레이드됨
+ Oozie가 버전 5.2.0으로 업그레이드됨
+ Presto가 버전 0.232로 업그레이드됨
+ Spark가 버전 2.4.5로 업그레이드됨
+ 업그레이드된 커넥터 및 드라이버: Amazon Glue 커넥터 1.12.0, Amazon Kinesis 커넥터 3.5.0, EMR DynamoDB 커넥터 4.14.0

**새로운 기능**
+ **EMR Notebooks** - 5.30.0을 사용하여 생성된 EMR 클러스터와 함께 사용하면 EMR 노트북 커널이 클러스터에서 실행됩니다. 이로써 노트북 성능이 향상되며, 커널을 설치하고 사용자 지정할 수 있습니다. 클러스터 프라이머리 노드에 Python 라이브러리를 설치할 수도 있습니다. 자세한 내용은 *EMR 관리 안내서*에서 [커널 및 라이브러리 설치 및 사용](https://docs.aws.amazon.com//emr/latest/ManagementGuide/emr-managed-notebooks-installing-libraries-and-kernels.html)을 참조하세요.
+ **Managed Scaling** - Amazon EMR 버전 5.30.0 이상에서는 EMR Managed Scaling을 활성화하여 워크로드에 따라 클러스터에서 인스턴스 또는 유닛 수를 자동으로 늘리거나 줄일 수 있습니다. Amazon EMR은 클러스터 지표를 지속적으로 평가하여 비용과 속도 측면에서 클러스터를 최적화하는 조정 결정을 내립니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [클러스터 리소스 조정](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scale-on-demand.html)을 참조하세요.
+ **Amazon S3에 저장된 로그 파일 암호화** - Amazon EMR 버전 5.30.0 이상에서는 AWS KMS 고객 관리형 키를 사용하여 Amazon S3에 저장된 로그 파일을 암호화할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [Amazon S3에 저장된 로그 파일 암호화](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-debugging.html#emr-log-encryption)를 참조하세요.
+ **Amazon Linux 2 지원** - EMR 버전 5.30.0 이상에서 EMR은 Amazon Linux 2 OS를 사용합니다. 새로운 사용자 지정 Amazon Machine Image(AMI)는 Amazon Linux 2 AMI를 기반으로 해야 합니다. 자세한 내용은 [사용자 지정 AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)을 참조하십시오.
+ **Presto 단계적 자동 조정** - 5.30.0 버전을 사용하는 EMR 클러스터의 경우 Auto Scaling 제한 시간을 설정할 수 있습니다. 이 제한 시간을 통해 Presto에서 노드가 서비스 해제되기 전에 실행을 완료할 수 있습니다. 자세한 내용은 [단계적 서비스 해제 기능이 있는 자동 조정 사용](presto-graceful-autoscale.md) 단원을 참조하십시오.
+ **새 할당 전략 옵션을 사용한 플릿 인스턴스 생성** - 새 할당 전략 옵션은 EMR 버전 5.12.1 이상에서 사용할 수 있습니다. 이를 통해 클러스터 프로비저닝 속도가 빨라지고 스팟 할당이 더 정확해지며 스팟 인스턴스 중단이 줄어듭니다. 기본이 아닌 EMR 서비스 역할은 업데이트해야 합니다. [인스턴스 플릿 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-instance-fleet.html)을 참조하세요.
+ **sudo systemctl stop 및 sudo systemctl start 명령** – Amazon Linux 2 OS를 사용하는 EMR 버전 5.30.0 이상에서 EMR은 `sudo systemctl stop` 및 `sudo systemctl start` 명령을 사용하여 서비스를 다시 시작합니다. 자세한 내용은 [Amazon EMR에서 서비스를 다시 시작하려면 어떻게 해야 하나요?](https://aws.amazon.com/premiumsupport/knowledge-center/restart-service-emr/)를 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ EMR 버전 5.30.0은 기본적으로 Ganglia를 설치하지 않습니다. 클러스터 생성 시 Ganglia를 설치하도록 명시적으로 선택할 수 있습니다.
+ Spark 성능 최적화
+ Presto 성능 최적화
+ Python 3은 Amazon EMR 버전 5.30.0 이상의 기본값입니다.
+ 프라이빗 서브넷의 서비스 액세스에 대한 기본 관리형 보안 그룹이 새 규칙으로 업데이트되었습니다. 서비스 액세스에 대한 사용자 지정 보안 그룹을 사용하는 경우, 기본 관리형 보안 그룹과 동일한 규칙을 포함시켜야 합니다. 자세한 내용은 [서비스 액세스에 대한 Amazon EMR 관리형 보안 그룹(프라이빗 서브넷)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-man-sec-groups.html#emr-sg-elasticmapreduce-sa-private)을 참조하세요. Amazon EMR에 대해 사용자 지정 서비스 역할을 사용하는 경우 EMR에서 보안 그룹이 올바르게 생성되는지 여부를 검증할 수 있도록 `ec2:describeSecurityGroups`에 대한 권한을 부여해야 합니다. `EMR_DefaultRole`을 사용하는 경우 이 권한은 이미 기본 관리형 정책에 포함되어 있습니다.

**알려진 문제**
+ **이전 AL2에서 더 낮은 '최대 열린 파일' 한도[최신 릴리스에서 수정됨].** Amazon EMR 릴리스: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, emr-6.2.0은 Amazon Linux 2(AL2)의 이전 버전에 기반합니다. 이전 버전에서는 Amazon EMR 클러스터가 기본 AMI에서 생성되는 경우 '최대 열린 파일'에 대한 ulimit 설정이 더 낮습니다. Amazon EMR 릴리스 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 이상에는 더 높은 '최대 열린 파일' 설정을 포함한 영구적 수정 사항이 포함되어 있습니다. 열린 파일 한도가 낮은 릴리스의 경우 Spark 작업을 제출할 때 'Too many open files' 오류가 발생합니다. 영향을 받는 릴리스에서 Amazon EMR 기본 AMI의 '최대 열린 파일'에 대한 기본 ulimit 설정은 4,096개이며, 이는 최신 Amazon Linux 2 AMI의 65,536개 파일 제한보다 낮습니다. '최대 열린 파일'에 대한 더 낮은 ulimit 설정을 사용하면 Spark 드라이버와 실행기가 4,096개가 넘는 파일을 열려고 할 때 Spark 작업이 실패합니다. 이 문제를 해결하기 위해 Amazon EMR에는 클러스터 생성 시 ulimit 설정을 조정하는 부트스트랩 작업(BA) 스크립트가 있습니다.

  이 문제에 대한 영구 수정 사항이 포함되지 않은 이전 Amazon EMR 버전을 사용하는 경우 다음 해결 방법을 통해 instance-controller ulimit를 최대 65,536개의 파일로 명시적으로 설정할 수 있습니다.

**명령줄에서 ulimit를 명시적으로 설정합니다.**

  1. `/etc/systemd/system/instance-controller.service`를 편집하여 Service 섹션에 다음 파라미터를 추가합니다.

     `LimitNOFILE=65536`

     `LimitNPROC=65536`

  1. InstanceController 다시 시작

     `$ sudo systemctl daemon-reload`

     `$ sudo systemctl restart instance-controller`

  **부트스트랩 작업(BA)을 사용하여 ulimit 설정**

  클러스터 생성 시 부트스트랩 작업(BA) 스크립트를 사용하여 instance-controller ulimit를 65,536개 파일로 구성할 수도 있습니다.

  ```
  #!/bin/bash
  for user in hadoop spark hive; do
  sudo tee /etc/security/limits.d/$user.conf << EOF
  $user - nofile 65536
  $user - nproc 65536
  EOF
  done
  for proc in instancecontroller logpusher; do
  sudo mkdir -p /etc/systemd/system/$proc.service.d/
  sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF
  [Service]
  LimitNOFILE=65536
  LimitNPROC=65536
  EOF
  pid=$(pgrep -f aws157.$proc.Main)
  sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535
  done
  sudo systemctl daemon-reload
  ```
+ **Managed Scaling**

  Presto가 설치되지 않은 5.30.0 및 5.30.1 클러스터에서 Managed Scaling을 수행하면 애플리케이션 장애가 발생하거나 균일한 인스턴스 그룹 또는 인스턴스 플릿이 `ARRESTED` 상태로 유지될 수 있습니다. 특히 스케일 다운 작업 이후 바로 스케일 업 작업이 수행되는 경우가 이에 해당합니다.

  해결 방법으로 작업에 Presto가 필요하지 않더라도 Amazon EMR 릴리스 5.30.0 및 5.30.1에서 클러스터를 생성할 때 설치할 애플리케이션으로 Presto를 선택합니다.
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.
+ Hue 4.6.0의 기본 데이터베이스 엔진은 SQLite이며, 이 때문에 외부 데이터베이스에서 Hue를 사용하려고 하면 문제가 발생합니다. 이 문제를 해결하려면 `hue-ini` 구성 분류에서 `engine`을 `mysql`로 설정합니다. 이 문제는 Amazon EMR 버전 5.30.1에서 수정되었습니다.
+ Hive 파티션 위치 형식과 함께 Spark를 사용하여 Amazon S3의 데이터를 읽고, Amazon EMR 릴리스 5.30.0\$15.36.0 및 6.2.0\$16.9.0에서 Spark를 실행하는 경우 클러스터가 데이터를 제대로 읽지 못하는 문제가 발생할 수 있습니다. 파티션에 다음과 같은 특성이 모두 있는 경우 이러한 상황이 발생할 수 있습니다.
  + 둘 이상의 파티션이 동일한 테이블에서 스캔됩니다.
  + 하나 이상의 파티션 디렉터리 경로가 하나 이상의 다른 파티션 디렉터리 경로의 접두사입니다. 예를 들어 `s3://bucket/table/p=a`는 `s3://bucket/table/p=a b`의 접두사입니다.
  + 다른 파티션 디렉터리에서 접두사 뒤에 오는 첫 번째 문자의 UTF-8 값이 `/` 문자(U\$1002F)보다 작습니다. 예를 들어 `s3://bucket/table/p=a b`에서 a와 b 사이에 있는 공백 문자(U\$10020)가 이 카테고리에 속합니다. `!"#$%&‘()*+,-`와 같은 14개의 비제어 문자가 있습니다. 자세한 내용은 [UTF-8 인코딩 테이블 및 유니코드 문자](https://www.utf8-chartable.de/)를 참조하세요.

  이 문제를 해결하려면 `spark-defaults` 분류에서 `spark.sql.sources.fastS3PartitionDiscovery.enabled` 구성을 `false`로 설정합니다.

## 5.30.0 구성 요소 버전
<a name="emr-5300-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.14.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.13.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.5.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-notebook-env | 1.0.0 | emr 노트북용 Conda env | 
| emr-s3-dist-cp | 2.14.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.5.0 | EMR S3Select 커넥터 | 
| emrfs | 2.40.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.10.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-6 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.13 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.13 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.13 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.13 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.13 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.6-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.6-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.6-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.6-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.6-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.6-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.6-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.2-incubating | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.2-incubating | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.6.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.1.0 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.7.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.5.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mariadb-server | 5.5.64 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.232 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.232 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.232 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.3 | 통계 컴퓨팅용 R 프로젝트 | 
| ranger-kms-server | 1.2.0 | Apache Ranger 키 관리 시스템 | 
| spark-client | 2.4.5-amzn-0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.5-amzn-0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.5-amzn-0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.5-amzn-0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.30.0 구성 분류
<a name="emr-5300-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.30.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| hudi-env | Hudi 환경에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.29.0
<a name="emr-5290-release"></a>

## 5.29.0 애플리케이션 버전
<a name="emr-5290-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.29.0 | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.682 | 1.11.659 | 1.11.659 | 1.11.615 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.1 | 1.9.0 | 1.9.0 | 1.8.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-1 | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 
| Hudi | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.2-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.227 | 0.227 | 0.224 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.29.0 릴리스 정보
<a name="emr-5290-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.29.0에 대한 정보가 포함됩니다. 변경 사항은 5.28.1에 관련됩니다.

최초 릴리스 날짜: 2020년 1월 17일

**업그레이드**
+ 버전 1.11.682 AWS SDK for Java 로 업그레이드됨
+ Hive가 버전 2.3.6으로 업그레이드됨
+ Flink가 버전 1.9.1로 업그레이드됨
+ EmrFS가 버전 2.38.0으로 업그레이드됨
+ EMR DynamoDB Connector가 버전 4.13.0으로 업그레이드됨

**변경 사항, 향상된 기능 및 해결된 문제**
+ Spark
  + Spark 성능 최적화
+ EMRFS
  + 일관된 보기를 위해 관리 안내서에서 emrfs-site.xml 기본 설정이 업데이트됩니다.

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.29.0 구성 요소 버전
<a name="emr-5290-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.13.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.12.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.13.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.4.0 | EMR S3Select 커넥터 | 
| emrfs | 2.38.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터 | 
| flink-client | 1.9.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.10 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.10 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.10 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.10 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.10 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.6-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.6-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.6-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.6-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.6-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.6-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.6-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.0-incubating | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.0-incubating | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.0.0 | Jupyter 노트북용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.5.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.227 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.227 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.227 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.4 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.4 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.4 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.4 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.29.0 구성 분류
<a name="emr-5290-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.29.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.28.1
<a name="emr-5281-release"></a>

## 5.28.1 애플리케이션 버전
<a name="emr-5281-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.28.1 | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.659 | 1.11.659 | 1.11.615 | 1.11.615 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.0 | 1.9.0 | 1.8.1 | 1.8.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-0 | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 
| Hudi | 0.5.0-incubating | 0.5.0-incubating |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.5.1 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.3-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.227 | 0.224 | 0.224 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.4 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.2 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.28.1 릴리스 정보
<a name="emr-5281-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.28.1에 대한 정보가 포함됩니다. 변경 사항은 5.28.0에 관련됩니다.

최초 릴리스 날짜: 2020년 1월 10일

**변경 사항, 향상된 기능 및 해결된 문제**
+ Spark
  + Spark 호환성 문제를 수정했습니다.
+ CloudWatch 지표
  + 여러 프라이머리 노드가 있는 EMR 클러스터에 Amazon CloudWatch 지표가 게시되는 문제를 수정했습니다.
+ 로그 메시지 비활성화
  + false 로그 메시지 "이전 버전(<4.5.8)의 Apache http 클라이언트를 사용..."을 비활성화했습니다.

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.28.1 구성 요소 버전
<a name="emr-5281-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.12.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.11.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.13.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 | 
| emrfs | 2.37.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.9.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.10 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.10 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.10 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.10 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.10 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.6-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.6-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.6-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.6-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.6-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.6-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.6-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.0-incubating | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.0-incubating | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.0.0 | Jupyter 노트북용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.5.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.227 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.227 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.227 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.4 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.4 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.4 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.4 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.28.1 구성 분류
<a name="emr-5281-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.28.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.28.0
<a name="emr-5280-release"></a>

## 5.28.0 애플리케이션 버전
<a name="emr-5280-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [https://hudi.apache.org](https://hudi.apache.org), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.28.0 | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.659 | 1.11.615 | 1.11.615 | 1.11.595 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.9.0 | 1.8.1 | 1.8.1 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.10 | 
| HCatalog | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 
| Hadoop | 2.8.5-amzn-5 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.6-amzn-0 | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 
| Hudi | 0.5.0-incubating |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 1.0.0 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.5.1 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.3-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.227 | 0.224 | 0.224 | 0.220 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.4 | 2.4.3 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.13.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.2 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.28.0 릴리스 정보
<a name="emr-5280-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.28.0에 대한 정보가 포함됩니다. 변경 사항은 5.27.0에 관련됩니다.

최초 릴리스 날짜: 2019년 11월 12일

**업그레이드**
+ Flink가 버전 1.9.0으로 업그레이드됨
+ Hive가 버전 2.3.6으로 업그레이드됨
+ MXNet이 1.5.1로 업그레이드됨
+ Phoenix가 버전 4.14.3으로 업그레이드됨
+ Presto가 버전 0.227로 업그레이드됨
+ Zeppelin이 버전 0.8.2로 업그레이드됨

**새로운 기능**
+ 이제 [Apache Hudi](https://hudi.apache.org/)는 클러스터를 생성할 때 Amazon EMR에서 설치할 수 있습니다. 자세한 내용은 [Hudi](emr-hudi.md) 단원을 참조하십시오.
+ (2019년 11월 25일) 이제 클러스터 사용률을 개선하고 비용을 절감하기 위해 여러 단계를 병렬로 실행하도록 선택할 수 있습니다. 대기 중인 단계와 실행 중인 단계를 모두 취소할 수도 있습니다. 자세한 내용은 [AWS CLI 및 콘솔을 사용하여 단계 작업을 참조하세요](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-work-with-steps.html).
+ (2019년 12월 3일) 이제 온프레미스 시설에서 네이티브 AWS 서비스, 인프라 및 운영 모델을 AWS Outposts AWS Outposts 활성화하여 EMR 클러스터를 생성하고 실행할 수 있습니다. AWS Outposts 환경에서는 AWS 클라우드에서 사용하는 것과 동일한 AWS APIs, 도구 및 인프라를 사용할 수 있습니다. 자세한 내용은 [의 EMR 클러스터를 참조하세요 AWS Outposts](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-outposts.html).
+ (2020년 3월 11일) Amazon EMR 버전 5.28.0부터 AWS 로컬 영역을 지원하는 AWS 리전의 논리적 확장으로 로컬 영역 서브넷에서 Amazon EMR 클러스터를 생성하고 실행할 수 있습니다. 로컬 영역을 사용하면 Amazon EMR 기능과 컴퓨팅 및 스토리지 AWS 서비스와 같은 서비스 하위 집합을 사용자에게 더 가깝게 배치하여 로컬에서 실행되는 애플리케이션에 대한 매우 짧은 지연 시간 액세스를 제공할 수 있습니다. 사용 가능한 로컬 영역 목록은 [AWS Local Zones](https://aws.amazon.com/about-aws/global-infrastructure/localzones/)를 참조하세요. 사용 가능한 AWS 로컬 영역에 액세스하는 방법에 대한 자세한 내용은 [리전, 가용 영역 및 로컬 영역을 참조하세요](https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availability-zones.html).

  로컬 영역은 현재 Amazon EMR Notebooks를 지원하지 않으며 인터페이스 VPC 엔드포인트(AWS PrivateLink)를 사용하여 Amazon EMR에 직접 연결하는 기능도 지원하지 않습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 고가용성 클러스터에 대해 확장된 애플리케이션 지원
  + 자세한 내용은 *Amazon EMR 관리 안내서*에서 [여러 프라이머리 노드가 있는 EMR 클러스터에서 지원되는 애플리케이션](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html#emr-plan-ha-applications-list)을 참조하세요.
+ Spark
  + 성능 최적화
+ Hive
  + 성능 최적화
+ Presto
  + 성능 최적화

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.28.0 구성 요소 버전
<a name="emr-5280-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.6 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.12.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.11.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.13.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 | 
| emrfs | 2.37.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.9.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-5 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.10 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.10 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.10 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.10 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.10 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.6-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.6-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.6-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.6-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.6-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.6-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.6-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hudi | 0.5.0-incubating | 짧은 지연 시간 및 높은 효율성으로 데이터 파이프라인을 구동하는 증분 처리 프레임워크. | 
| hudi-presto | 0.5.0-incubating | Hudi로 Presto를 실행하기 위한 번들 라이브러리. | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.0.0 | Jupyter 노트북용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.5.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.3-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.3-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.227 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.227 | 여러 쿼리를 실행하는 서비스. | 
| presto-client | 0.227 | Presto 서버가 시작되지 않은 HA 클러스터의 대기 마스터에 설치된 Presto 명령줄 클라이언트. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.4 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.4 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.4 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.4 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.28.0 구성 분류
<a name="emr-5280-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.28.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.27.1
<a name="emr-5271-release"></a>

## 5.27.1 애플리케이션 버전
<a name="emr-5271-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.27.1 | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.615 | 1.11.615 | 1.11.595 | 1.11.566 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.1 | 1.8.1 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.10 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-1 | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 1.0.0 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.224 | 0.224 | 0.220 | 0.220 | 
| Spark | 2.4.4 | 2.4.4 | 2.4.3 | 2.4.3 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.14.0 | 1.13.1 | 1.13.1 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 | 

## 5.27.1 릴리스 정보
<a name="emr-5271-relnotes"></a>

패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

인스턴스 메타데이터 서비스(IMDS) V2 지원 상태: Amazon EMR 5.23.1, 5.27.1 및 5.32 이상의 구성 요소는 모든 IMDS 직접 호출에 IMDSv2를 사용합니다. 애플리케이션 코드에서 IMDS를 직접 호출하는 경우, IMDSv1 및 IMDSv2를 모두 사용하거나, 추가 보안을 위해 IMDSv2만 사용하도록 IMDS를 구성할 수 있습니다. 다른 5.x EMR 릴리스의 경우 IMDSv1을 비활성화하면 클러스터 시작 오류가 발생합니다.

## 5.27.1 구성 요소 버전
<a name="emr-5271-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.12.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.11.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.13.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 | 
| emrfs | 2.36.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.8.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.10 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.10 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.10 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.10 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.10 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.5-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.5-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.5-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.5-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.5-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.5-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.5-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.0.0 | Jupyter 노트북용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.4.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.2-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.2-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.224 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.224 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.4 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.4 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.4 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.4 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.27.1 구성 분류
<a name="emr-5271-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.27.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.27.0
<a name="emr-5270-release"></a>

## 5.27.0 애플리케이션 버전
<a name="emr-5270-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.27.0 | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.615 | 1.11.595 | 1.11.566 | 1.11.546 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.1 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.10 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-1 | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 1.0.0 | 0.9.6 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.2-HBase-1.4 | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.224 | 0.220 | 0.220 | 0.219 | 
| Spark | 2.4.4 | 2.4.3 | 2.4.3 | 2.4.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.14.0 | 1.13.1 | 1.13.1 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.13 | 

## 5.27.0 릴리스 정보
<a name="emr-5270-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.27.0에 대한 정보가 포함됩니다. 변경 사항은 5.26.0에 관련됩니다.

최초 릴리스 날짜: 2019년 9월 23일

**업그레이드**
+ AWS SDK for Java 1.11.615
+ Flink 1.8.1
+ JupyterHub 1.0.0
+ Spark 2.4.4
+ TensorFlow 1.14.0
+ 커넥터 및 드라이버:
  + DynamoDB 커넥터 4.12.0

**새로운 기능**
+ (2019년 10월 24일) 다음과 같은 EMR 노트북의 새로운 기능은 모든 Amazon EMR 릴리스에서 사용할 수 있습니다.
  + 이제 Git 리포지토리를 EMR 노트북과 연결하여 버전 제어 환경에서 노트북을 저장할 수 있습니다. 원격 Git 리포지토리를 통해 동료와 코드를 공유할 수 있고 기존 Jupyter Notebook을 재사용할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [Amazon EMR Notebooks에 Git 리포지토리 연결](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-git-repo.html)을 참조하세요.
  + 이제 EMR 노트북에서 [nbdime 유틸리티](https://github.com/jupyter/nbdime)를 사용하여 노트북 비교 및 병합을 간소화할 수 있습니다.
  + 이제 EMR 노트북이 JupyterLab을 지원합니다. JupyterLab은 Jupyter Notebook과 완전히 호환 가능한 웹 기반 대화식 개발 환경입니다. 이제 JupyterLab 또는 Jupyter Notebook 편집기에서 노트북을 열 수 있는 옵션이 제공됩니다.
+ (2019년 10월 30일) Amazon EMR 버전 5.25.0 이상부터 콘솔에서 클러스터 **요약** 페이지 또는 **애플리케이션 기록** 탭을 사용해 Spark 기록 서버 UI에 연결할 수 있습니다. SSH 연결을 통해 웹 프록시를 설정하는 대신, Spark 기록 서버 UI에 액세스하여 애플리케이션 지표를 보고 활성 클러스터 및 종료된 클러스터에 대한 관련 로그 파일에 액세스할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [영구 애플리케이션 사용자 인터페이스에 대해 클러스터 외부에서 액세스](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html)를 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ 여러 프라이머리 노드를 포함하는 Amazon EMR 클러스터
  + 여러 프라이머리 노드를 포함하는 Amazon EMR 클러스터에 Flink를 설치하고 실행할 수 있습니다. 자세한 내용은 [지원되는 애플리케이션 및 기능](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha-applications.html)을 참조하세요.
  + 여러 프라이머리 노드를 포함하는 Amazon EMR 클러스터에서 HDFS 투명 암호화를 구성할 수 있습니다. 자세한 내용은 [여러 프라이머리 노드를 포함하는 EMR 클러스터에서 HDFS의 투명한 암호화](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-encryption-tdehdfs.html#emr-hadoop-kms-multi-master)를 참조하세요.
  + 이제 여러 프라이머리 노드를 포함하는 Amazon EMR 클러스터에서 실행 중인 애플리케이션의 구성을 수정할 수 있습니다. 자세한 내용은 [실행 중 클러스터의 인스턴스 그룹에 대해 구성 제공](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html)을 참조하세요.
+ Amazon EMR-DynamoDB 커넥터
  + 이제 Amazon EMR-DynamoDB 커넥터에서 부울, 목록, 맵, 항목, null과 같은 DynamoDB 데이터 유형을 지원합니다. 자세한 정보는 [Hive 테이블을 설정하여 Hive 명령 실행](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/EMR_Interactive_Hive.html)을 참조하십시오.

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.27.0 구성 요소 버전
<a name="emr-5270-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.12.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.11.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.13.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 | 
| emrfs | 2.36.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.8.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.10 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.10 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.10 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.10 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.10 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.5-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.5-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.5-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.5-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.5-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.5-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.5-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 1.0.0 | Jupyter 노트북용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.4.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.2-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.2-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.224 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.224 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.4 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.4 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.4 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.4 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.14.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.27.0 구성 분류
<a name="emr-5270-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.27.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| ranger-kms-dbks-site | Ranger KMS dbks-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-site | Ranger KMS ranger-kms-site.xml 파일에서 값을 변경합니다. | 
| ranger-kms-env | Ranger KMS 환경에서 값을 변경합니다. | 
| ranger-kms-log4j | Ranger KMS kms-log4j.properties 파일에서 값을 변경합니다. | 
| ranger-kms-db-ca | Ranger KMS와의 MySQL SSL 연결에서 CA 파일의 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.26.0
<a name="emr-5260-release"></a>

## 5.26.0 애플리케이션 버전
<a name="emr-5260-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.595 | 1.11.566 | 1.11.546 | 1.11.546 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.10 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 
| Hive | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.220 | 0.220 | 0.219 | 0.219 | 
| Spark | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 | 

## 5.26.0 릴리스 정보
<a name="emr-5260-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.26.0에 대한 정보가 포함됩니다. 변경 사항은 5.25.0에 관련됩니다.

최초 릴리스 날짜: 2019년 8월 8일

최종 업데이트 날짜: 2019년 8월 19일

**업그레이드**
+ AWS SDK for Java 1.11.595
+ HBase 1.4.10
+ Phoenix 4.14.2
+ 커넥터 및 드라이버:
  + DynamoDB 커넥터 4.11.0
  + MariaDB 커넥터 2.4.2
  + Amazon Redshift JDBC 드라이버 1.2.32.1056

**새로운 기능**
+ (베타) Amazon EMR 5.26.0에서 Lake Formation과 통합된 클러스터를 시작할 수 있습니다. 이 통합은 AWS Glue 데이터 카탈로그의 데이터베이스 및 테이블에 대한 세분화된 열 수준 액세스를 제공합니다. 또한 엔터프라이즈 자격 증명 시스템에서 EMR 노트북 또는 Apache Zeppelin에 연동된 Single Sign-On을 사용할 수도 있습니다. 자세한 내용은 [Integrating Amazon EMR with AWS Lake Formation (Beta)](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-lake-formation.html)를 참조하세요.
+ (2019년 8월 19일) 보안 그룹을 지원하는 모든 Amazon EMR 릴리스에 Amazon EMR 퍼블릭 액세스 차단 기능을 사용할 수 있습니다. 퍼블릭 액세스 차단은 각 AWS 리전에 적용되는 계정 전체의 설정입니다. 포트가 예외로 지정되지 않은 한, 퍼블릭 액세스 차단은 클러스터와 연결된 보안 그룹에 포트의 IPv4 0.0.0.0/0 또는 IPv6 ::/0(퍼블릭 액세스)에서 인바운드 트래픽을 허용하는 규칙이 있을 때 클러스터가 시작되지 않도록 합니다. 포트 22는 기본적으로 예외로 설정됩니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [Amazon EMR 퍼블랙 액세스 차단 기능 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-block-public-access.html)을 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ EMR Notebooks
  + EMR 5.26.0 이상에서 EMR Notebooks는 기본 Python 라이브러리 외에도 노트북 범위의 Python 라이브러리를 지원합니다. 클러스터를 다시 생성하거나 노트북을 클러스터에 다시 연결할 필요 없이 노트북 편집기 내에서 노트북 범위 라이브러리를 설치할 수 있습니다. 노트북 범위의 라이브러리는 Python 가상 환경에서 생성되므로 현재 노트북 세션에만 적용됩니다. 이를 통해 노트북 종속성을 분리할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [노트북 범위 라이브러리 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks-custom-libraries-limitations.html)을 참조하세요.
+ EMRFS
  + `fs.s3.consistent.metadata.etag.verification.enabled`를 `true`로 설정하여 ETag 확인 기능(베타)을 활성화할 수 있습니다. 이 기능을 통해 EMRFS는 Amazon S3 ETag를 사용하여 읽고 있는 객체가 사용 가능한 최신 버전인지 확인합니다. 이 기능은 동일한 이름을 유지하면서 Amazon S3의 파일을 덮어쓰는 업데이트 후 읽기 사용 사례에 유용합니다. 이 ETag 확인 기능은 현재 S3 Select에서 작동하지 않습니다. 자세한 내용은 [일관된 보기 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emrfs-configure-consistent-view.html) 단원을 참조하십시오.
+ Spark
  + 동적 파티션 잘라내기, INTERSECT에 앞선 DISTINCT, JOIN-DISTINCT 쿼리에 대한 SQL 계획 통계 추론의 개선, 스칼라 하위 쿼리 평면화, 최적화된 조인 재정렬 및 블룸 필터 조인과 같은 최적화가 이제 기본적으로 설정됩니다. 자세한 내용은 [Spark 성능 최적화](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html)를 참조하십시오.
  + 정렬 병합 조인의 전체 스테이지 코드 생성 기능이 개선되었습니다.
  + 쿼리 조각 및 하위 쿼리 재사용이 개선되었습니다.
  + Spark 시작 시 실행기를 사전 할당하도록 개선되었습니다.
  + 조인의 작은 쪽에 브로드캐스트 힌트가 포함되어 있으면 블룸 필터 조인이 더 이상 적용되지 않습니다.
+ Tez의 Hive 실행 시간 비교
  + Tez 관련 문제를 해결했습니다. 이제 Tez UI는 여러 프라이머리 노드를 포함하는 Amazon EMR 클러스터에서 작동합니다.

**알려진 문제**
+ 정렬 병합 조인에 대한 향상된 전체 스테이지 코드 생성 기능을 사용하면 메모리 압력을 높일 수 있습니다. 이 최적화는 성능을 향상시키지만 `spark.yarn.executor.memoryOverheadFactor`가 충분한 메모리를 제공하도록 조정되지 않은 경우 작업 재시도 또는 실패를 초래할 수 있습니다. 이 기능을 비활성화하려면 `spark.sql.sortMergeJoinExec.extendedCodegen.enabled`를 false로 설정하십시오.
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.26.0 구성 요소 버전
<a name="emr-5260-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.11.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.10.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.12.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 | 
| emrfs | 2.35.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.8.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.10 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.10 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.10 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.10 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.10 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.5-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.5-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.5-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.5-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.5-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.5-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.5-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.6 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.4.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.2-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.2-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.220 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.220 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.13.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.26.0 구성 분류
<a name="emr-5260-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.26.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.25.0
<a name="emr-5250-release"></a>

## 5.25.0 애플리케이션 버전
<a name="emr-5250-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.566 | 1.11.546 | 1.11.546 | 1.11.519 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 
| Hive | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.220 | 0.219 | 0.219 | 0.215 | 
| Spark | 2.4.3 | 2.4.2 | 2.4.2 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.13.1 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.2 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.14 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.25.0 릴리스 정보
<a name="emr-5250-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.25.0에 대한 정보가 포함됩니다. 변경 사항은 5.24.1에 관련됩니다.

최초 릴리스 날짜: 2019년 7월 17일

최종 업데이트 날짜: 2019년 10월 30일

**Amazon EMR 5.25.0**

**업그레이드**
+ AWS SDK for Java 1.11.566
+ Hive 2.3.5
+ Presto 0.220
+ Spark 2.4.3
+ TensorFlow 1.13.1
+ Tez 0.9.2
+ Zookeeper 3.4.14

**새로운 기능**
+ (2019년 10월 30일) Amazon EMR 버전 5.25.0부터 콘솔에서 클러스터 **요약** 페이지 또는 **애플리케이션 기록** 탭을 사용해 Spark 기록 서버 UI에 연결할 수 있습니다. SSH 연결을 통해 웹 프록시를 설정하는 대신, Spark 기록 서버 UI에 액세스하여 애플리케이션 지표를 보고 활성 클러스터 및 종료된 클러스터에 대한 관련 로그 파일에 액세스할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [영구 애플리케이션 사용자 인터페이스에 대해 클러스터 외부에서 액세스](https://docs.aws.amazon.com/emr/latest/ManagementGuide/app-history-spark-UI.html)를 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Spark
  + Bloom 필터로 입력을 사전 필터링하여 일부 조인의 성능을 개선했습니다. 이 최적화는 기본적으로 비활성화되어 있으며, Spark 구성 파라미터 `spark.sql.bloomFilterJoin.enabled`를 `true`로 설정하여 활성화할 수 있습니다.
  + 문자열 형식 열을 기준으로 그룹화하는 성능을 개선했습니다.
  + HBase를 설치하지 않고 클러스터에 대한 R4 인스턴스 유형의 핵심 구성 및 기본 Spark 실행기 메모리를 개선했습니다.
  + 잘린 테이블이 조인의 왼쪽에 있어야 하는 이전의 동적 파티션 잘라내기 기능에 대한 문제를 해결했습니다.
  + 별칭과 관련된 추가 사례를 적용하기 위해 INTERSECT 이전 DISTINCT 최적화를 개선했습니다.
  + DISTINCT 쿼리 이전 JOIN에 대한 SQL 계획 통계 추론을 개선했습니다. 이 개선 사항은 기본적으로 비활성화되어 있으며, Spark 구성 파라미터 `spark.sql.statsImprovements.enabled`를 `true`로 설정하여 활성화할 수 있습니다. 이 최적화는 Intersect 이전 Distinct 기능에 필요하며 `spark.sql.optimizer.distinctBeforeIntersect.enabled`를 `true`로 설정할 경우 자동으로 활성화됩니다.
  + 테이블 크기 및 필터에 따라 조인 순서를 최적화했습니다. 이 최적화는 기본적으로 비활성화되어 있으며, Spark 구성 파라미터 `spark.sql.optimizer.sizeBasedJoinReorder.enabled`를 `true`로 설정하여 활성화할 수 있습니다.

  자세한 내용은 [Spark 성능 최적화](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html)를 참조하십시오.
+ EMRFS
  + 이제 EMRFS 설정 `fs.s3.buckets.create.enabled`가 기본적으로 비활성화됩니다. 테스트 결과 이 설정을 비활성화하면 성능이 향상되고 의도치 않은 S3 버킷 생성이 방지된다는 사실을 확인했습니다. 애플리케이션이 이 기능을 사용하는 경우 `emrfs-site` 구성 분류에서 속성 `fs.s3.buckets.create.enabled`를 `true`로 설정하여 활성화할 수 있습니다. 자세한 내용은 [클러스터를 생성할 때 구성 제공](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-create-cluster.html) 단원을 참조하십시오.
+ 보안 구성의 로컬 디스크 암호화 및 S3 암호화 개선(2019년 8월 5일)
  + 보안 구성 설정에서 로컬 디스크 암호화 설정과 Amazon S3 암호화 설정이 분리되었습니다.
  + EBS 암호화를 활성화하는 옵션이 5.24.0 이상 릴리스에 추가되었습니다. 이 옵션을 선택하면 스토리지 볼륨뿐만 아니라 루트 디바이스 볼륨도 암호화됩니다. 이전 버전에서는 사용자 지정 AMI를 사용하여 루트 디바이스 볼륨을 암호화해야 했습니다.
  + 자세한 내용은 *Amazon EMR 관리 안내서*에서 [암호화 옵션](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-data-encryption-options.html)을 참조하세요.

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.25.0 구성 요소 버전
<a name="emr-5250-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.10.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.9.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 | 
| emrfs | 2.34.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.8.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.9 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.9 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.9 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.9 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.9 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.5-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.5-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.5-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.5-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.5-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.5-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.5-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.6 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.4.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.1-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.220 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.220 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.13.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. | 

## 5.25.0 구성 분류
<a name="emr-5250-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.25.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| recordserver-env | EMR RecordServer 환경에서 값을 변경합니다. | 
| recordserver-conf | EMR RecordServer erver.properties 파일에서 값을 변경합니다. | 
| recordserver-log4j | EMR RecordServer log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.24.1
<a name="emr-5241-release"></a>

## 5.24.1 애플리케이션 버전
<a name="emr-5241-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.24.1 | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.546 | 1.11.546 | 1.11.519 | 1.11.519 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.8.0 | 1.7.1 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 
| Hive | 2.3.4-amzn-2 | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.4.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.4 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.219 | 0.219 | 0.215 | 0.215 | 
| Spark | 2.4.2 | 2.4.2 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.24.1 릴리스 정보
<a name="emr-5241-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.24.1에 대한 정보가 포함됩니다. 변경 사항은 5.24.0에 관련됩니다.

최초 릴리스 날짜: 2019년 6월 26일

**변경 사항, 향상된 기능 및 해결된 문제**
+ TCP SACK 서비스 거부 문제([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/))를 비롯한 중요한 Linux 커널 보안 업데이트를 포함하도록 Amazon EMR의 기본 Amazon Linux AMI를 업데이트했습니다.

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.24.1 구성 요소 버전
<a name="emr-5241-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.9.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.8.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 | 
| emrfs | 2.33.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.8.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.9 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.9 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.9 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.9 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.9 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.6 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.4.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.1-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.219 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.219 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.24.1 구성 분류
<a name="emr-5241-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.24.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.24.0
<a name="emr-5240-release"></a>

## 5.24.0 애플리케이션 버전
<a name="emr-5240-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.24.0 | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.546 | 1.11.519 | 1.11.519 | 1.11.510 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.8.0 | 1.7.1 | 1.7.1 | 1.7.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.9 | 
| HCatalog | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 
| Hive | 2.3.4-amzn-2 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.4.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.6 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.6.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.219 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.2 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.24.0 릴리스 정보
<a name="emr-5240-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.24.0에 대한 정보가 포함됩니다. 변경 사항은 5.23.0에 관련됩니다.

최초 릴리스 날짜: 2019년 6월 11일

최종 업데이트 날짜: 2019년 8월 5일

**업그레이드**
+ Flink 1.8.0
+ Hue 4.4.0
+ JupyterHub 0.9.6
+ Livy 0.6.0
+ MxNet 1.4.0
+ Presto 0.219
+ Spark 2.4.2
+ AWS SDK for Java 1.11.546
+ 커넥터 및 드라이버:
  + DynamoDB 커넥터 4.9.0
  + MariaDB 커넥터 2.4.1
  + Amazon Redshift JDBC 드라이버 1.2.27.1051

**변경 사항, 향상된 기능 및 해결된 문제**
+ Spark
  + 파티션을 동적으로 삭제하는 최적화가 추가되었습니다. 최적화는 기본적으로 비활성화되어 있습니다. 활성화하려면 Spark 구성 파라미터 `spark.sql.dynamicPartitionPruning.enabled`를 `true`로 설정하십시오.
  + `INTERSECT` 쿼리의 성능을 개선했습니다. 이 최적화는 기본적으로 비활성화되어 있습니다. 활성화하려면 Spark 구성 파라미터 `spark.sql.optimizer.distinctBeforeIntersect.enabled`를 `true`로 설정하십시오.
  + 동일한 관계를 사용하는 집계로 스칼라 하위 쿼리를 평면화하는 최적화가 추가되었습니다. 최적화는 기본적으로 비활성화되어 있습니다. 활성화하려면 Spark 구성 파라미터 `spark.sql.optimizer.flattenScalarSubqueriesWithAggregates.enabled`를 `true`로 설정하십시오.
  + 전체 스테이지 코드 생성이 개선되었습니다.

  자세한 내용은 [Spark 성능 최적화](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-spark-performance.html)를 참조하십시오.
+ 보안 구성의 로컬 디스크 암호화 및 S3 암호화 개선(2019년 8월 5일)
  + 보안 구성 설정에서 로컬 디스크 암호화 설정과 Amazon S3 암호화 설정이 분리되었습니다.
  + EBS 암호화를 활성화하는 옵션이 추가되었습니다. 이 옵션을 선택하면 스토리지 볼륨뿐만 아니라 루트 디바이스 볼륨도 암호화됩니다. 이전 버전에서는 사용자 지정 AMI를 사용하여 루트 디바이스 볼륨을 암호화해야 했습니다.
  + 자세한 내용은 *Amazon EMR 관리 안내서*에서 [암호화 옵션](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-data-encryption-options.html)을 참조하세요.

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.24.0 구성 요소 버전
<a name="emr-5240-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.9.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.8.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 | 
| emrfs | 2.33.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.8.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.9 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.9 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.9 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.9 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.9 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.4.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.6 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.4.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.1-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.219 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.219 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.24.0 구성 분류
<a name="emr-5240-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.24.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.23.1
<a name="emr-5231-release"></a>

## 5.23.1 애플리케이션 버전
<a name="emr-5231-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.23.1 | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.519 | 1.11.519 | 1.11.510 | 1.11.479 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.1 | 1.7.1 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.9 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-3 | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.0.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.23.1 릴리스 정보
<a name="emr-5231-relnotes"></a>

패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

인스턴스 메타데이터 서비스(IMDS) V2 지원 상태: Amazon EMR 5.23.1, 5.27.1 및 5.32 이상의 구성 요소는 모든 IMDS 직접 호출에 IMDSv2를 사용합니다. 애플리케이션 코드에서 IMDS를 직접 호출하는 경우, IMDSv1 및 IMDSv2를 모두 사용하거나, 추가 보안을 위해 IMDSv2만 사용하도록 IMDS를 구성할 수 있습니다. 다른 5.x EMR 릴리스의 경우 IMDSv1을 비활성화하면 클러스터 시작 오류가 발생합니다.

## 5.23.1 구성 요소 버전
<a name="emr-5231-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.8.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.7.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.32.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.7.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-3 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.9 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.9 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.9 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.9 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.9 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.3.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.1-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.215 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.215 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.23.1 구성 분류
<a name="emr-5231-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.23.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.23.0
<a name="emr-5230-release"></a>

## 5.23.0 애플리케이션 버전
<a name="emr-5230-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.23.0 | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.519 | 1.11.510 | 1.11.479 | 1.11.479 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.1 | 1.7.0 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.9 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-3 | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.1.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.23.0 릴리스 정보
<a name="emr-5230-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.23.0에 대한 정보가 포함됩니다. 변경 사항은 5.22.0에 관련됩니다.

최초 릴리스 날짜: 2019년 4월 1일

최종 업데이트 날짜: 2019년 4월 30일

**업그레이드**
+ AWS SDK for Java 1.11.519

**새로운 기능**
+ (2019년 4월 30일) Amazon EMR 5.23.0 이상에서 3개의 프라이머리 노드를 포함하는 클러스터를 시작하고 YARN Resource Manager, HDFS NameNode, Spark, Hive, Ganglia와 같은 애플리케이션의 고가용성을 지원할 수 있습니다. 이 기능을 사용하면 프라이머리 노드가 더 이상 잠재적 단일 장애 지점이 아닙니다. 프라이머리 노드 중 하나에 장애가 발생할 경우, Amazon EMR이 자동으로 대기 프라이머리 노드로 장애 조치하고 장애가 발생한 프라이머리 노드를 동일한 구성 및 부트스트랩 작업을 갖는 새로운 프라이머리 노드로 교체합니다. 자세한 내용은 [프라이머리 노드 계획 및 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-ha.html)을 참조하세요.

**알려진 문제**
+ Tez UI(Amazon EMR 릴리스 5.26.0에서 수정됨)

  Tez UI는 여러 프라이머리 노드를 포함하는 EMR 클러스터에서 작동하지 않습니다.
+ Hue(Amazon EMR 릴리스 5.24.0에서 수정됨)
  + Amazon EMR에서 실행되는 Hue는 Solr을 지원하지 않습니다. Amazon EMR 릴리스 5.20.0부터 잘못된 구성 문제로 인해 Solr이 활성화되고 다음과 유사한 무해한 오류 메시지가 표시됩니다.

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **Solr 오류 메시지를 표시하지 않으려면**

    1. SSH를 사용하여 프라이머리 노드 명령줄에 연결합니다.

    1. 텍스트 편집기를 사용하여 `hue.ini` 파일을 엽니다. 예제:

       `sudo vim /etc/hue/conf/hue.ini`

    1. `appblacklist`라는 단어를 검색하고 해당 줄을 다음과 같이 수정합니다.

       ```
       appblacklist = search
       ```

    1. 변경 내용을 저장하고 다음 예와 같이 Hue를 다시 시작합니다.

       ```
       sudo stop hue; sudo start hue
       ```
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.23.0 구성 요소 버전
<a name="emr-5230-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.8.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.7.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.32.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.7.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-hdfs-journalnode | 2.8.5-amzn-3 | HA 클러스터에서 하둡 파일 시스템 저널을 관리하기 위한 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.9 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.9 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.9 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.9 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.9 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.3.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.1-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.215 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.215 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.23.0 구성 분류
<a name="emr-5230-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.23.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.22.0
<a name="emr-5220-release"></a>

## 5.22.0 애플리케이션 버전
<a name="emr-5220-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.22.0 | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.510 | 1.11.479 | 1.11.479 | 1.11.479 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.1 | 1.7.0 | 1.7.0 | 1.7.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.9 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-2 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-1 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.1.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.1-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.215 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.1 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.22.0 릴리스 정보
<a name="emr-5220-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.22.0에 대한 정보가 포함됩니다. 변경 사항은 5.21.0에 관련됩니다.

**중요**  
Amazon EMR 릴리스 5.22.0부터 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 이전 Amazon EMR 릴리스는 경우에 따라 AWS 서명 버전 4만 사용된다는 릴리스 정보가 표시되지 않는 한 서명 버전 2를 사용합니다. 자세한 내용은 *Amazon Simple Storage Service 개발자 안내서*의 [요청 인증(AWS 서명 버전 4)](https://docs.aws.amazon.com/AmazonS3/latest/API/sig-v4-authenticating-requests.html) 및 [요청 인증(AWS 서명 버전 2)](https://docs.aws.amazon.com/AmazonS3/latest/API/auth-request-sig-v2.html)을 참조하세요.

최초 릴리스 날짜: 2019년 3월 20일

**업그레이드**
+ Flink 1.7.1
+ HBase 1.4.9
+ Oozie 5.1.0
+ Phoenix 4.14.1
+ Zeppelin 0.8.1
+ 커넥터 및 드라이버:
  + DynamoDB 커넥터 4.8.0
  + MariaDB Connector 2.2.6
  + Amazon Redshift JDBC 드라이버 1.2.20.1043

**새로운 기능**
+ EBS 전용 스토리지를 사용하는 EC2 인스턴스 유형에 대한 기본 EBS 구성을 수정했습니다. Amazon EMR 릴리스 5.22.0 이상을 사용하여 클러스터를 생성할 때 EBS 스토리지의 기본적인 크기가 인스턴스 크기에 따라 증가합니다. 뿐만 아니라 증가한 스토리지를 여러 볼륨에 분할하여 향상된 IOPS 성능을 제공합니다. 다른 EBS 인스턴스 스토리지 구성을 사용하려는 경우 EMR 클러스터를 생성하거나 기존 클러스터에 노드를 추가할 때 이 구성을 지정할 수 있습니다. 각 인스턴스 유형에 기본적으로 할당된 스토리지 크기와 볼륨 수에 대한 자세한 내용은 *Amazon EMR 관리 안내서*에서 [인스턴스의 기본 EBS 스토리지](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-storage.html#emr-plan-storage-ebs-storage-default)를 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Spark
  + YARN의 Spark에 새로운 구성 속성 `spark.yarn.executor.memoryOverheadFactor`를 추가했습니다. 이 속성의 값은 최소 384MB의 메모리 오버헤드 값을 실행기 메모리의 백분율로 설정하는 확장 팩터입니다. 메모리 오버헤드가 `spark.yarn.executor.memoryOverhead`를 사용하여 명시적으로 설정된 경우 이 속성은 아무 효과가 없습니다. 기본값은 18.75%를 나타내는 `0.1875`입니다. Amazon EMR의 기본값은 실행기 메모리 오버헤드를 위해 Spark에서 내부적으로 설정한 기본값 10%보다 더 많은 공간을 YARN 컨테이너에 남깁니다. TPC-DS 벤치마크 결과 Amazon EMR 기본값, 18.75%로 설정하면 메모리 관련 오류가 경험적으로 적었습니다.
  + 성능 개선을 위해 [SPARK-26316](https://issues.apache.org/jira/browse/SPARK-26316)을 백포트했습니다.
+ Amazon EMR 버전 5.19.0, 5.20.0 및 5.21.0에서 YARN 노드 레이블은 HDFS 디렉터리에 저장됩니다. 이로 인해 경우에 따라 코어 노드 시작이 지연되어 클러스터가 시간 초과되고 시작이 실패할 수 있습니다. Amazon EMR 5.22.0부터 이 문제가 해결되었습니다. YARN 노드 레이블은 각 클러스터 노드의 로컬 디스크에 저장되어 HDFS에 종속되지 않습니다.

**알려진 문제**
+ Hue(Amazon EMR 릴리스 5.24.0에서 수정됨)
  + Amazon EMR에서 실행되는 Hue는 Solr을 지원하지 않습니다. Amazon EMR 릴리스 5.20.0부터 잘못된 구성 문제로 인해 Solr이 활성화되고 다음과 유사한 무해한 오류 메시지가 표시됩니다.

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **Solr 오류 메시지를 표시하지 않으려면**

    1. SSH를 사용하여 프라이머리 노드 명령줄에 연결합니다.

    1. 텍스트 편집기를 사용하여 `hue.ini` 파일을 엽니다. 예제:

       `sudo vim /etc/hue/conf/hue.ini`

    1. `appblacklist`라는 단어를 검색하고 해당 줄을 다음과 같이 수정합니다.

       ```
       appblacklist = search
       ```

    1. 변경 내용을 저장하고 다음 예와 같이 Hue를 다시 시작합니다.

       ```
       sudo stop hue; sudo start hue
       ```
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.22.0 구성 요소 버전
<a name="emr-5220-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.8.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.6.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.31.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.7.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.9 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.9 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.9 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.9 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.9 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.3.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.1-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.1-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.215 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.215 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.22.0 구성 분류
<a name="emr-5220-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.22.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.21.2
<a name="emr-5212-release"></a>

## 5.21.2 애플리케이션 버전
<a name="emr-5212-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.21.2 | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.479 | 1.11.479 | 1.11.479 | 1.11.461 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.7.0 | 1.7.0 | 1.6.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.215 | 0.214 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.2 릴리스 정보
<a name="emr-5212-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.21.2 구성 요소 버전
<a name="emr-5212-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.1 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.30.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.7.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.8 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.8 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.8 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.8 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.8 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.3.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.215 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.215 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.21.2 구성 분류
<a name="emr-5212-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.21.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.21.1
<a name="emr-5211-release"></a>

## 5.21.1 애플리케이션 버전
<a name="emr-5211-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.21.1 | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.479 | 1.11.479 | 1.11.461 | 1.11.461 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.7.0 | 1.6.2 | 1.6.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.8 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.215 | 0.214 | 0.214 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.4.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.12.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.9.1 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.1 릴리스 정보
<a name="emr-5211-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.21.1에 대한 정보가 포함됩니다. 변경 사항은 5.21.0에 관련됩니다.

최초 릴리스 날짜: 2019년 7월 18일

**변경 사항, 향상된 기능 및 해결된 문제**
+ TCP SACK 서비스 거부 문제([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/))를 비롯한 중요한 Linux 커널 보안 업데이트를 포함하도록 Amazon EMR의 기본 Amazon Linux AMI를 업데이트했습니다.

**알려진 문제**
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.21.1 구성 요소 버전
<a name="emr-5211-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.1 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.30.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.7.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.8 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.8 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.8 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.8 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.8 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.3.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.215 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.215 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.21.1 구성 분류
<a name="emr-5211-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.21.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.21.0
<a name="emr-5210-release"></a>

## 5.21.0 애플리케이션 버전
<a name="emr-5210-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.21.0 | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.479 | 1.11.461 | 1.11.461 | 1.11.433 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.4 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.7.0 | 1.6.2 | 1.6.2 | 1.6.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.8 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.215 | 0.214 | 0.214 | 0.212 | 
| Spark | 2.4.0 | 2.4.0 | 2.4.0 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.12.0 | 1.11.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.9.1 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.21.0 릴리스 정보
<a name="emr-5210-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.21.0에 대한 정보가 포함됩니다. 변경 사항은 5.20.0에 관련됩니다.

최초 릴리스 날짜: 2019년 2월 18일

최종 업데이트 날짜: 2019년 4월 3일

**업그레이드**
+ Flink 1.7.0
+ Presto 0.215
+ AWS SDK for Java 1.11.479

**새로운 기능**
+ (2019년 4월 3일) Amazon EMR 버전 5.21.0 이상에서는 클러스터 구성을 재정의할 수 있으며, 실행 중인 클러스터의 각 인스턴스 그룹에 대해 추가 구성 분류를 지정할 수 있습니다. Amazon EMR 콘솔, AWS Command Line Interface (AWS CLI) 또는 AWS SDK를 사용하여이 작업을 수행할 수 있습니다. 자세한 내용은 [실행 중 클러스터의 인스턴스 그룹에 대해 구성 제공](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps-running-cluster.html)을 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Zeppelin
  + [ZEPPELIN-3878](https://issues.apache.org/jira/browse/ZEPPELIN-3878)을 백포트했습니다.

**알려진 문제**
+ Hue(Amazon EMR 릴리스 5.24.0에서 수정됨)
  + Amazon EMR에서 실행되는 Hue는 Solr을 지원하지 않습니다. Amazon EMR 릴리스 5.20.0부터 잘못된 구성 문제로 인해 Solr이 활성화되고 다음과 유사한 무해한 오류 메시지가 표시됩니다.

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **Solr 오류 메시지를 표시하지 않으려면**

    1. SSH를 사용하여 프라이머리 노드 명령줄에 연결합니다.

    1. 텍스트 편집기를 사용하여 `hue.ini` 파일을 엽니다. 예제:

       `sudo vim /etc/hue/conf/hue.ini`

    1. `appblacklist`라는 단어를 검색하고 해당 줄을 다음과 같이 수정합니다.

       ```
       appblacklist = search
       ```

    1. 변경 내용을 저장하고 다음 예와 같이 Hue를 다시 시작합니다.

       ```
       sudo stop hue; sudo start hue
       ```
+ Tez의 Hive 실행 시간 비교
  + 이 문제는 Amazon EMR 5.22.0에서 해결되었습니다.

    클러스터 프라이머리 노드에 대한 SSH 연결을 통해 http://*MasterDNS*:8080/tez-ui의 Tez UI에 연결할 때 'Adapter operation failed - Timeline server (ATS) is out of reach. Either it is down, or CORS is not enabled(어댑터 작동이 실패했습니다. - 타임라인 서버(ATS)가 범위를 벗어났습니다. 다운되었거나 CORS가 활성화되어 있지 않습니다.)"라는 오류가 나타나거나, 작업 중 예기치 않게 N/A(해당 사항 없음)가 표시됩니다.

    이 오류는 Tez UI가 프라이머리 노드의 호스트 이름 대신 `localhost`를 사용하여 YARN 타임라인 서버에 요청할 때 발생합니다. 이 문제를 해결하기 위해 스크립트를 부트스트랩 작업 또는 단계로 실행할 수 있습니다. 스크립트는 Tez `configs.env` 파일의 호스트 이름을 업데이트합니다. 스크립트에 대한 자세한 내용과 위치를 보려면 [부트스트랩 지침](http://awssupportdatasvcs.com/bootstrap-actions/fix_tez_ui_0-9-1/)을 참조하십시오.
+ Amazon EMR 버전 5.19.0, 5.20.0 및 5.21.0에서 YARN 노드 레이블은 HDFS 디렉터리에 저장됩니다. 이로 인해 경우에 따라 코어 노드 시작이 지연되어 클러스터가 시간 초과되고 시작이 실패할 수 있습니다. Amazon EMR 5.22.0부터 이 문제가 해결되었습니다. YARN 노드 레이블은 각 클러스터 노드의 로컬 디스크에 저장되어 HDFS에 종속되지 않습니다.
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.21.0 구성 요소 버전
<a name="emr-5210-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.1 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.11.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.30.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.7.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.8 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.8 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.8 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.8 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.8 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.3.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.215 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.215 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.21.0 구성 분류
<a name="emr-5210-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.21.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.20.1
<a name="emr-5201-release"></a>

## 5.20.1 애플리케이션 버전
<a name="emr-5201-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.20.1 | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.461 | 1.11.461 | 1.11.433 | 1.11.433 | 
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.12 | 2.11.12 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.8 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 
| Hive | 2.3.4-amzn-0 | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.9.4 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.214 | 0.214 | 0.212 | 0.212 | 
| Spark | 2.4.0 | 2.4.0 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.12.0 | 1.11.0 | 1.11.0 | 
| Tez | 0.9.1 | 0.9.1 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.13 | 

## 5.20.1 릴리스 정보
<a name="emr-5201-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.20.1 구성 요소 버전
<a name="emr-5201-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.1 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.29.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.6.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.8 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.8 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.8 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.8 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.8 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.3.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.214 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.214 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.20.1 구성 분류
<a name="emr-5201-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.20.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.20.0
<a name="emr-5200-release"></a>

## 5.20.0 애플리케이션 버전
<a name="emr-5200-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.20.0 | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.461 | 1.11.433 | 1.11.433 | 1.11.393 | 
| Python | 2.7, 3.6 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.12 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.8 | 1.4.7 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.4-amzn-0 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-1 | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 
| Hive | 2.3.4-amzn-0 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.9.4 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.214 | 0.212 | 0.212 | 0.210 | 
| Spark | 2.4.0 | 2.3.2 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.12.0 | 1.11.0 | 1.11.0 | 1.9.0 | 
| Tez | 0.9.1 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.13 | 3.4.12 | 

## 5.20.0 릴리스 정보
<a name="emr-5200-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.20.0에 대한 정보가 포함됩니다. 변경 사항은 5.19.0에 관련됩니다.

최초 릴리스 날짜: 2018년 12월 18일

마지막 업데이트 날짜: 2019년 1월 22일

**업그레이드**
+ Flink 1.6.2
+ HBase 1.4.8
+ Hive 2.3.4
+ Hue 4.3.0
+ MXNet 1.3.1
+ Presto 0.214
+ Spark 2.4.0
+ TensorFlow 1.12.0
+ Tez 0.9.1
+ AWS SDK for Java 1.11.461

**새로운 기능**
+ (2019년 1월 22일) Amazon EMR의 Kerberos가 외부 KDC의 인증 보안 주체를 지원하도록 개선되었습니다. 이는 여러 클러스터가 하나의 외부 KDC를 공유할 수 있기 때문에 보안 주체 관리를 중앙 집중화합니다. 또한 외부 KDC는 Active Directory 도메인과 교차 영역 신뢰를 가질 수 있습니다. 이를 통해 모든 클러스터는 Active Directory의 보안 주체를 인증할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [Kerberos 인증 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-kerberos.html)을 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Amazon EMR의 기본 Amazon Linux AMI
  + Python3 패키지가 python 3.4에서 3.6으로 업그레이드되었습니다.
+ EMRFS S3 최적화 커미터 
  + EMRFS S3 최적화 커미터가 이제 기본적으로 활성화되며 쓰기 성능을 향상시킵니다. 자세한 내용은 [EMRFS S3 최적화 커미터 사용](emr-spark-s3-optimized-committer.md) 단원을 참조하십시오.
+ Hive
  + [HIVE-16686](https://issues.apache.org/jira/browse/HIVE-16686)를 백포트했습니다.
+ Glue와 Spark 및 Hive
  + EMR 5.20.0 이상에서는 AWS Glue 데이터 카탈로그를 메타스토어로 사용할 때 Spark 및 Hive에 대해 병렬 파티션 정리가 자동으로 활성화됩니다. 이 변경 사항은 여러 요청을 병렬로 실행하여 파티션을 검색함으로써 쿼리 계획 시간을 크게 단축합니다. 동시에 실행할 수 있는 총 세그먼트 수는 1\$110입니다. 기본값은 5이며, 또한 권장 설정입니다. `hive-site` 구성 분류에서 `aws.glue.partition.num.segments` 속성을 지정하여 이 설정을 변경할 수 있습니다. 조절이 발생할 경우 값을 1로 변경하여 기능을 끌 수 있습니다. 자세한 내용은 [AWS Glue 세그먼트 구조](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-partitions.html#aws-glue-api-catalog-partitions-Segment)를 참조하세요.

**알려진 문제**
+ Hue(Amazon EMR 릴리스 5.24.0에서 수정됨)
  + Amazon EMR에서 실행되는 Hue는 Solr을 지원하지 않습니다. Amazon EMR 릴리스 5.20.0부터 잘못된 구성 문제로 인해 Solr이 활성화되고 다음과 유사한 무해한 오류 메시지가 표시됩니다.

    `Solr server could not be contacted properly: HTTPConnectionPool('host=ip-xx-xx-xx-xx.ec2.internal', port=1978): Max retries exceeded with url: /solr/admin/info/system?user.name=hue&doAs=administrator&wt=json (Caused by NewConnectionError(': Failed to establish a new connection: [Errno 111] Connection refused',))`

    **Solr 오류 메시지를 표시하지 않으려면**

    1. SSH를 사용하여 프라이머리 노드 명령줄에 연결합니다.

    1. 텍스트 편집기를 사용하여 `hue.ini` 파일을 엽니다. 예제:

       `sudo vim /etc/hue/conf/hue.ini`

    1. `appblacklist`라는 단어를 검색하고 해당 줄을 다음과 같이 수정합니다.

       ```
       appblacklist = search
       ```

    1. 변경 내용을 저장하고 다음 예와 같이 Hue를 다시 시작합니다.

       ```
       sudo stop hue; sudo start hue
       ```
+ Tez의 Hive 실행 시간 비교
  + 이 문제는 Amazon EMR 5.22.0에서 해결되었습니다.

    클러스터 프라이머리 노드에 대한 SSH 연결을 통해 http://*MasterDNS*:8080/tez-ui의 Tez UI에 연결할 때 'Adapter operation failed - Timeline server (ATS) is out of reach. Either it is down, or CORS is not enabled(어댑터 작동이 실패했습니다. - 타임라인 서버(ATS)가 범위를 벗어났습니다. 다운되었거나 CORS가 활성화되어 있지 않습니다.)"라는 오류가 나타나거나, 작업 중 예기치 않게 N/A(해당 사항 없음)가 표시됩니다.

    이 오류는 Tez UI가 프라이머리 노드의 호스트 이름 대신 `localhost`를 사용하여 YARN 타임라인 서버에 요청할 때 발생합니다. 이 문제를 해결하기 위해 스크립트를 부트스트랩 작업 또는 단계로 실행할 수 있습니다. 스크립트는 Tez `configs.env` 파일의 호스트 이름을 업데이트합니다. 스크립트에 대한 자세한 내용과 위치를 보려면 [부트스트랩 지침](http://awssupportdatasvcs.com/bootstrap-actions/fix_tez_ui_0-9-1/)을 참조하십시오.
+ Amazon EMR 버전 5.19.0, 5.20.0 및 5.21.0에서 YARN 노드 레이블은 HDFS 디렉터리에 저장됩니다. 이로 인해 경우에 따라 코어 노드 시작이 지연되어 클러스터가 시간 초과되고 시작이 실패할 수 있습니다. Amazon EMR 5.22.0부터 이 문제가 해결되었습니다. YARN 노드 레이블은 각 클러스터 노드의 로컬 디스크에 저장되어 HDFS에 종속되지 않습니다.
+ 여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제

  Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.

  해결 방법:
  + 여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한 `hadoop` 사용자로 SSH 연결합니다.
  +  다음 명령을 실행하여 `hadoop` 사용자의 Kerberos 티켓을 갱신합니다.

    ```
    kinit -kt <keytab_file> <principal>
    ```

    일반적으로 keytab 파일은 `/etc/hadoop.keytab`에 있으며, 보안 주체는 `hadoop/<hostname>@<REALM>` 양식입니다.
**참고**  
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.

## 5.20.0 구성 요소 버전
<a name="emr-5200-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.1 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.2.0 | EMR S3Select 커넥터 | 
| emrfs | 2.29.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.6.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.8 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.8 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.8 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.8 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.8 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.4-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.4-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.4-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.4-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.4-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.4-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.4-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.3.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.1 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.214 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.214 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.4.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.4.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.4.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.4.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.12.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.9.1 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.20.0 구성 분류
<a name="emr-5200-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.20.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.19.1
<a name="emr-5191-release"></a>

## 5.19.1 애플리케이션 버전
<a name="emr-5191-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.19.1 | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.433 | 1.11.433 | 1.11.393 | 1.11.393 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 
| Hadoop | 2.8.5-amzn-0 | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.9.4 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.0 | 1.3.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.212 | 0.212 | 0.210 | 0.210 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.11.0 | 1.11.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.8.0 | 
| ZooKeeper | 3.4.13 | 3.4.13 | 3.4.12 | 3.4.12 | 

## 5.19.1 릴리스 정보
<a name="emr-5191-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.19.1 구성 요소 버전
<a name="emr-5191-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.1 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.28.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.6.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.7 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.7 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.7 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.7 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.7 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.212 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.212 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.19.1 구성 분류
<a name="emr-5191-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.19.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.19.0
<a name="emr-5190-release"></a>

## 5.19.0 애플리케이션 버전
<a name="emr-5190-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.19.0 | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.433 | 1.11.393 | 1.11.393 | 1.11.336 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.5-amzn-0 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.9.4 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.3.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.212 | 0.210 | 0.210 | 0.206 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.11.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.8.0 | 0.7.3 | 
| ZooKeeper | 3.4.13 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.19.0 릴리스 정보
<a name="emr-5190-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.19.0에 대한 정보가 포함됩니다. 변경 사항은 5.18.0에 관련됩니다.

최초 릴리스 날짜: 2018년 11월 7일

최종 업데이트: 2018년 11월 19일

**업그레이드**
+ 하둡 2.8.5
+ Flink 1.6.1
+ JupyterHub 0.9.4
+ MXNet 1.3.0
+ Presto 0.212
+ TensorFlow 1.11.0
+ Zookeeper 3.4.13
+ AWS SDK for Java 1.11.433

**새로운 기능**
+ (2018년 11월 19일) EMR Notebooks는 Jupyter Notebook 기반의 관리형 환경입니다. PySpark, Spark SQL, Spark R 및 Scala에 대한 Spark 매직 커널을 지원합니다. EMR Notebooks는 Amazon EMR 릴리스 5.18.0 이상을 사용하여 생성한 클러스터와 함께 사용할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [EMR Notebooks 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks.html)을 참조하세요.
+ Spark 및 EMRFS를 사용하여 Parquet 파일을 작성할 때 EMRFS S3 최적화 커미터를 사용할 수 있습니다. 이 커미터는 쓰기 성능을 향상시킵니다. 자세한 내용은 [EMRFS S3 최적화 커미터 사용](emr-spark-s3-optimized-committer.md) 단원을 참조하십시오.

**변경 사항, 향상된 기능 및 해결된 문제**
+ YARN
  + 코어 노드에서 실행할 때 애플리케이션 마스터 프로세스를 제한하는 로직이 수정되었습니다. 이 기능은 이제 YARN 노드 레이블 기능과 `yarn-site`의 속성 및 `capacity-scheduler` 구성 분류를 사용합니다. 자세한 정보는 [https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-instances-guidelines.html#emr-plan-spot-YARN.](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-plan-instances-guidelines.html#emr-plan-spot-YARN.) 섹션을 참조하세요.
+ Amazon EMR의 기본 Amazon Linux AMI
  + `ruby18`, `php56`, `gcc48`이 이제 기본적으로 설치되지 않습니다. 필요할 경우 `yum`을 사용하여 설치할 수 있습니다.
  + aws-java-sdk ruby gem이 이제 더 이상 기본적으로 설치되지 않습니다. 필요할 경우 `gem install aws-sdk`를 사용하여 설치할 수 있습니다. 특정 구성 요소도 설치할 수 있습니다. 예를 들어 `gem install aws-sdk-s3`입니다.

**알려진 문제**
+ **EMR Notebooks** - 일부 상황에서 노트북 편집기가 여러 개 열려 있는 경우 노트북 편집기가 클러스터에 연결할 수 없는 것처럼 보일 수 있습니다. 이 경우 브라우저 쿠키를 지우고 노트북 편집기를 다시 여십시오.
+ **CloudWatch ContainerPending 지표 및 자동 조정** - (5.20.0에서 수정됨) Amazon EMR은 `ContainerPending`에 대해 음수 값을 생성할 수 있습니다. 자동 조정 규칙에 `ContainerPending`을 사용할 경우 자동 조정이 예상대로 작동하지 않습니다. 자동 조정에 `ContainerPending`을 사용하지 마십시오.
+ Amazon EMR 버전 5.19.0, 5.20.0 및 5.21.0에서 YARN 노드 레이블은 HDFS 디렉터리에 저장됩니다. 이로 인해 경우에 따라 코어 노드 시작이 지연되어 클러스터가 시간 초과되고 시작이 실패할 수 있습니다. Amazon EMR 5.22.0부터 이 문제가 해결되었습니다. YARN 노드 레이블은 각 클러스터 노드의 로컬 디스크에 저장되어 HDFS에 종속되지 않습니다.

## 5.19.0 구성 요소 버전
<a name="emr-5190-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.2.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.7.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.1 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.28.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.6.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.5-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.5-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.5-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.5-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.5-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.5-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.5-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.5-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.5-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.5-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.7 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.7 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.7 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.7 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.7 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.9.4 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.3.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.212 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.212 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.11.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.13 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.13 | ZooKeeper 명령줄 클라이언트. | 

## 5.19.0 구성 분류
<a name="emr-5190-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.19.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-memory | Presto memory.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpcds | Presto tpcds.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.18.1
<a name="emr-5181-release"></a>

## 5.18.1 애플리케이션 버전
<a name="emr-5181-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.18.1 | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.393 | 1.11.393 | 1.11.336 | 1.11.336 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.210 | 0.210 | 0.206 | 0.206 | 
| Spark | 2.3.2 | 2.3.2 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.8.0 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.18.1 릴리스 정보
<a name="emr-5181-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.18.1 구성 요소 버전
<a name="emr-5181-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.27.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.6.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.4-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.7 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.7 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.7 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.7 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.7 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.2.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.210 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.210 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.9.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.18.1 구성 분류
<a name="emr-5181-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.18.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.18.0
<a name="emr-5180-release"></a>

## 5.18.0 애플리케이션 버전
<a name="emr-5180-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.18.0 | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.393 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.6.0 | 1.5.2 | 1.5.2 | 1.5.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 
| HCatalog | 2.3.3-amzn-2 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.210 | 0.206 | 0.206 | 0.206 | 
| Spark | 2.3.2 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 | 1.9.0 | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.8.0 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.18.0 릴리스 정보
<a name="emr-5180-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.18.0에 대한 정보가 포함됩니다. 변경 사항은 5.17.0에 관련됩니다.

최초 릴리스 날짜: 2018년 10월 24일

**업그레이드**
+ Flink 1.6.0
+ HBase 1.4.7
+ Presto 0.210
+ Spark 2.3.2
+ Zeppelin 0.8.0

**새로운 기능**
+ Amazon EMR 5.18.0부터 Amazon EMR 아티팩트 리포지토리를 사용하여 특정 Amazon EMR 릴리스 버전에서 사용할 수 있는 정확한 버전의 라이브러리와 종속 항목에 대해 작업 코드를 빌드할 수 있습니다. 자세한 내용은 [Amazon EMR 아티팩트 리포지토리를 사용하여 종속성 확인](emr-artifact-repository.md) 단원을 참조하십시오.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Hive
  + S3 Select에 대한 지원을 추가했습니다. 자세한 내용은 [S3 Select와 함께 Hive를 사용하여 성능 향상](emr-hive-s3select.md) 단원을 참조하십시오.
+ Presto
  + [S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/) Pushdown에 대한 지원을 추가했습니다. 자세한 내용은 [S3 Select Pushdown과 함께 Presto를 사용하여 성능 향상](emr-presto-s3select.md) 단원을 참조하십시오.
+ Spark
  + Spark에 대한 기본 log4j 구성이 Spark 스트리밍 작업에 대한 컨테이너 로그를 1시간마다 넘기도록 변경되었습니다. 따라서 오래 실행되는 Spark 스트리밍 작업에 대한 로그가 삭제되지 않습니다.

## 5.18.0 구성 요소 버전
<a name="emr-5180-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.1.0 | EMR S3Select 커넥터 | 
| emrfs | 2.27.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.6.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.4-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.7 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.7 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.7 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.7 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.7 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.2.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.210 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.210 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.9.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.8.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.18.0 구성 분류
<a name="emr-5180-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.18.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.17.2
<a name="emr-5172-release"></a>

## 5.17.2 애플리케이션 버전
<a name="emr-5172-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.17.2 | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.2 | 1.5.2 | 1.5.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.206 | 0.206 | 0.203 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 | 1.9.0 |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.2 릴리스 정보
<a name="emr-5172-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.17.2 구성 요소 버전
<a name="emr-5172-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.0.0 | EMR S3Select 커넥터 | 
| emrfs | 2.26.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.5.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.4-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.6 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.6 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.6 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.6 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.6 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.2.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.206 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.206 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.9.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.17.2 구성 분류
<a name="emr-5172-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.17.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.17.1
<a name="emr-5171-release"></a>

## 5.17.1 애플리케이션 버전
<a name="emr-5171-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.17.1 | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.336 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.2 | 1.5.0 | 1.5.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.6 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.206 | 0.203 | 0.203 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.1 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 | 1.9.0 |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.1 릴리스 정보
<a name="emr-5171-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.17.1에 대한 정보가 포함됩니다. 변경 사항은 5.17.0에 관련됩니다.

최초 릴리스 날짜: 2019년 7월 18일

**변경 사항, 향상된 기능 및 해결된 문제**
+ TCP SACK 서비스 거부 문제([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/))를 비롯한 중요한 Linux 커널 보안 업데이트를 포함하도록 Amazon EMR의 기본 Amazon Linux AMI를 업데이트했습니다.

## 5.17.1 구성 요소 버전
<a name="emr-5171-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.0.0 | EMR S3Select 커넥터 | 
| emrfs | 2.26.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.5.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.4-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.6 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.6 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.6 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.6 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.6 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.2.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.206 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.206 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.9.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.17.1 구성 분류
<a name="emr-5171-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.17.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.17.0
<a name="emr-5170-release"></a>

## 5.17.0 애플리케이션 버전
<a name="emr-5170-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://www.tensorflow.org/](https://www.tensorflow.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.17.0 | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.336 | 1.11.336 | 1.11.336 | 1.11.333 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.2 | 1.5.0 | 1.5.0 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.6 | 1.4.4 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 
| Hadoop | 2.8.4-amzn-1 | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.206 | 0.203 | 0.203 | 0.194 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.1 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow | 1.9.0 |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.17.0 릴리스 정보
<a name="emr-5170-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.17.0에 대한 정보가 포함됩니다. 변경 사항은 5.16.0에 관련됩니다.

최초 릴리스 날짜: 2018년 8월 30일

**업그레이드**
+ Flink 1.5.2
+ HBase 1.4.6
+ Presto 0.206

**새로운 기능**
+ Tensorflow에 대한 지원을 추가했습니다. 자세한 내용은 [TensorFlow](emr-tensorflow.md) 단원을 참조하십시오.

**변경 사항, 향상된 기능 및 해결된 문제**
+ JupyterHub
  + Amazon S3의 노트북 지속성에 대한 지원을 추가했습니다. 자세한 내용은 [Amazon S3에서 노트북의 지속성 구성](emr-jupyterhub-s3.md) 단원을 참조하십시오.
+ Spark
  + [S3 Select](https://aws.amazon.com/blogs/aws/s3-glacier-select/)에 대한 지원을 추가했습니다. 자세한 내용은 [S3 Select와 함께 Spark를 사용하여 쿼리 성능 향상](emr-spark-s3select.md) 단원을 참조하십시오.
+ Amazon EMR 버전 5.14.0, 5.15.0 또는 5.16.0의 CloudWatch 지표 및 자동 조정 기능 관련 문제를 해결했습니다.

**알려진 문제**
+ Kerberos 인증을 사용하는 클러스터를 생성하고 Livy를 설치하면 단순 인증이 활성화되지 않았다는 오류가 발생하면서 Livy가 실패합니다. Livy 서버를 재부팅하면 문제가 해결됩니다. 해결 방법으로, 클러스터 생성 중에 프라이머리 노드에서 `sudo restart livy-server`를 실행하는 단계를 추가합니다.
+ 생성 날짜가 2018-08-11인 Amazon Linux AMI를 기반으로 사용자 지정 Amazon Linux AMI를 사용하면 Oozie 서버가 시작에 실패합니다. Oozie를 사용하는 경우 생성 날짜가 다른 Amazon Linux AMI ID를 기반으로 사용자 지정 AMI를 생성하십시오. 다음 AWS CLI 명령을 사용하여 릴리스 날짜와 함께 2018.03 버전의 모든 HVM Amazon Linux AMIs에 대한 이미지 IDs 목록을 반환할 수 있으므로 적절한 Amazon Linux AMI를 기본으로 선택할 수 있습니다. MyRegion을 사용자의 리전 식별자(예: us-west-2)로 바꿉니다.

  ```
  aws ec2 --region MyRegion describe-images --owner amazon --query 'Images[?Name!=`null`]|[?starts_with(Name, `amzn-ami-hvm-2018.03`) == `true`].[CreationDate,ImageId,Name]' --output text | sort -rk1
  ```

## 5.17.0 구성 요소 버전
<a name="emr-5170-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.3 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.5.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emr-s3-select | 1.0.0 | EMR S3Select 커넥터 | 
| emrfs | 2.26.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.5.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.4-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.4-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.4-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.4-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.4-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.6 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.6 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.6 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.6 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.6 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.2.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.206 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.206 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tensorflow | 1.9.0 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.17.0 구성 분류
<a name="emr-5170-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.17.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.16.1
<a name="emr-5161-release"></a>

## 5.16.1 애플리케이션 버전
<a name="emr-5161-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.16.1 | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.336 | 1.11.336 | 1.11.333 | 1.11.333 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.0 | 1.5.0 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.4 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 
| Hadoop | 2.8.4-amzn-0 | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.2.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.14.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.203 | 0.203 | 0.194 | 0.194 | 
| Spark | 2.3.1 | 2.3.1 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.12 | 

## 5.16.1 릴리스 정보
<a name="emr-5161-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.16.1 구성 요소 버전
<a name="emr-5161-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.25.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.5.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.4-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.4-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.4-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.4-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.4-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.4 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.4 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.4 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.4 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.4 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.2.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.203 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.203 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.16.1 구성 분류
<a name="emr-5161-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.16.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.16.0
<a name="emr-5160-release"></a>

## 5.16.0 애플리케이션 버전
<a name="emr-5160-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.16.0 | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.336 | 1.11.333 | 1.11.333 | 1.11.297 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.5.0 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.4 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.4-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-1 | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.2.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.5.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.2.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 5.0.0 | 4.3.0 | 
| Phoenix | 4.14.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.203 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.1 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.12 | 3.4.10 | 

## 5.16.0 릴리스 정보
<a name="emr-5160-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.16.0에 대한 정보가 포함됩니다. 변경 사항은 5.15.0에 관련됩니다.

최초 릴리스 날짜: 2018년 7월 19일

**업그레이드**
+ Hadoop 2.8.4
+ Flink 1.5.0
+ Livy 0.5.0
+ MXNet 1.2.0
+ Phoenix 4.14.0
+ Presto 0.203
+ Spark 2.3.1
+ AWS SDK for Java 1.11.336
+ CUDA 9.2
+ Redshift JDBC 드라이버 1.2.15.1025

**변경 사항, 향상된 기능 및 해결된 문제**
+ HBase
  + [HBASE-20723](https://issues.apache.org/jira/browse/HBASE-20723) 백포트
+ Presto
  + LDAP 인증을 지원하도록 구성을 변경합니다. 자세한 내용은 [Amazon EMR 기반 Presto에 대한 LDAP 인증 사용](emr-presto-ldap.md) 단원을 참조하십시오.
+ Spark
  + Amazon EMR 릴리스 5.16.0부터 사용할 수 있는 Apache Spark 버전 2.3.1은 [CVE-2018-8024](https://nvd.nist.gov/vuln/detail/CVE-2018-8024) 및 [CVE-2018-1334](https://nvd.nist.gov/vuln/detail/CVE-2018-1334)를 처리합니다. Spark의 이전 버전을 Spark 버전 2.3.1 이상으로 마이그레이션하는 것이 좋습니다.

**알려진 문제**
+ 이 릴리스 버전은 c1.medium 또는 m1.small 인스턴스 유형을 지원하지 않습니다. 둘 중 어느 쪽이든 이런 인스턴스 유형을 사용하는 클러스터는 시작되지 않습니다. 차선책으로 다른 인스턴스 유형을 지정하거나 다른 릴리스 버전을 사용하십시오.
+ Kerberos 인증을 사용하는 클러스터를 생성하고 Livy를 설치하면 단순 인증이 활성화되지 않았다는 오류가 발생하면서 Livy가 실패합니다. Livy 서버를 재부팅하면 문제가 해결됩니다. 해결 방법으로, 클러스터 생성 중에 프라이머리 노드에서 `sudo restart livy-server`를 실행하는 단계를 추가합니다.
+ 프라이머리 노드가 재부팅되거나 인스턴스 컨트롤러가 다시 시작된 후에는 CloudWatch 지표가 수집되지 않으며 Amazon EMR 버전 5.14.0, 5.15.0 또는 5.16.0에서는 자동 조정 기능을 사용할 수 없습니다. 이 문제는 Amazon EMR 5.17.0에서 수정되었습니다.

## 5.16.0 구성 요소 버전
<a name="emr-5160-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.6.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.25.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.5.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.4-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.4-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.4-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.4-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.4-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.4-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.4-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.4-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.4-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.4-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.4 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.4 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.4 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.4 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.4 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.5.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.2.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.14.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.14.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.203 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.203 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.16.0 구성 분류
<a name="emr-5160-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.16.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-password-authenticator | Presto password-authenticator.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.15.1
<a name="emr-5151-release"></a>

## 5.15.1 애플리케이션 버전
<a name="emr-5151-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.15.1 | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.333 | 1.11.333 | 1.11.297 | 1.11.297 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.4 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-0 | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.2.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 5.0.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.12 | 3.4.10 | 3.4.10 | 

## 5.15.1 릴리스 정보
<a name="emr-5151-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.15.1 구성 요소 버전
<a name="emr-5151-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.24.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.4 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.4 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.4 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.4 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.4 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.1.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.194 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.194 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.15.1 구성 분류
<a name="emr-5151-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.15.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.15.0
<a name="emr-5150-release"></a>

## 5.15.0 애플리케이션 버전
<a name="emr-5150-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.15.0 | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.333 | 1.11.297 | 1.11.297 | 1.11.297 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.4 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.3-amzn-0 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.2.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.1.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 5.0.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.12 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.15.0 릴리스 정보
<a name="emr-5150-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.15.0에 대한 정보가 포함됩니다. 변경 사항은 5.14.0에 관련됩니다.

최초 릴리스 날짜: 2018년 6월 21일

**업그레이드**
+ HBase를 1.4.4로 업그레이드
+ Hive를 2.3.3으로 업그레이드
+ Hue를 4.2.0으로 업그레이드
+ Oozie를 5.0.0로 업그레이드
+ Zookeeper를 3.4.12로 업그레이드
+  AWS SDK를 1.11.333으로 업그레이드

**변경 사항, 향상된 기능 및 해결된 문제**
+ Hive
  + [HIVE-18069](https://issues.apache.org/jira/browse/HIVE-18069)를 백포트했습니다.
+ Hue
  + Kerberos 사용 시 Livy로 올바로 인증하도록 Hue를 업데이트했습니다. 이제 Livy가 Amazon EMR에서 Kerberos를 사용할 때 지원됩니다.
+ JupyterHub
  + Amazon EMR이 LDAP 클라이언트 라이브러리를 기본으로 설치하도록 JupyterHub를 업데이트했습니다.
  + 자체 서명 인증서를 생성하는 스크립트 오류를 수정했습니다.

**알려진 문제**
+ 이 릴리스 버전은 c1.medium 또는 m1.small 인스턴스 유형을 지원하지 않습니다. 둘 중 어느 쪽이든 이런 인스턴스 유형을 사용하는 클러스터는 시작되지 않습니다. 차선책으로 다른 인스턴스 유형을 지정하거나 다른 릴리스 버전을 사용하십시오.
+ 프라이머리 노드가 재부팅되거나 인스턴스 컨트롤러가 다시 시작된 후에는 CloudWatch 지표가 수집되지 않으며 Amazon EMR 버전 5.14.0, 5.15.0 또는 5.16.0에서는 자동 조정 기능을 사용할 수 없습니다. 이 문제는 Amazon EMR 5.17.0에서 수정되었습니다.

## 5.15.0 구성 요소 버전
<a name="emr-5150-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.24.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.4 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.4 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.4 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.4 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.4 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.3-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.3-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.3-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.3-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.3-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.3-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.3-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.2.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.1.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 5.0.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 5.0.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.194 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.194 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.12 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.12 | ZooKeeper 명령줄 클라이언트. | 

## 5.15.0 구성 분류
<a name="emr-5150-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.15.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.14.2
<a name="emr-5142-release"></a>

## 5.14.2 애플리케이션 버전
<a name="emr-5142-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.14.2 | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.297 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 | 0.8.1 |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.2 릴리스 정보
<a name="emr-5142-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.14.2 구성 요소 버전
<a name="emr-5142-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.23.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.1.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.194 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.194 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.14.2 구성 분류
<a name="emr-5142-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.14.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.14.1
<a name="emr-5141-release"></a>

## 5.14.1 애플리케이션 버전
<a name="emr-5141-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.14.1 | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.297 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.2 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 | 0.8.1 |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.194 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.3.0 | 
| Sqoop | 1.4.7 | 1.4.7 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.1 릴리스 정보
<a name="emr-5141-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.14.1에 대한 정보가 포함됩니다. 변경 사항은 5.14.0에 관련됩니다.

최초 릴리스 날짜: 2018년 10월 17일

잠재적 보안 취약성을 해결하기 위해 Amazon EMR의 기본 AMI를 업데이트했습니다.

## 5.14.1 구성 요소 버전
<a name="emr-5141-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.23.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.1.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.194 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.194 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.14.1 구성 분류
<a name="emr-5141-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.14.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.14.0
<a name="emr-5140-release"></a>

## 5.14.0 애플리케이션 버전
<a name="emr-5140-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://jupyterhub.readthedocs.io/en/latest/#](https://jupyterhub.readthedocs.io/en/latest/#), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.14.0 | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.297 | 1.11.297 | 1.11.297 | 1.11.267 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.2 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub | 0.8.1 |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.1.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.194 | 0.188 | 
| Spark | 2.3.0 | 2.3.0 | 2.3.0 | 2.2.1 | 
| Sqoop | 1.4.7 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.14.0 릴리스 정보
<a name="emr-5140-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.14.0에 대한 정보가 포함됩니다. 변경 사항은 5.13.0에 관련됩니다.

최초 릴리스 날짜: 2018년 6월 4일

**업그레이드**
+ Apache Flink를 1.4.2로 업그레이드
+ Apache MXnet을 1.1.0으로 업그레이드
+ Apache Sqoop를 1.4.7로 업그레이드

**새로운 기능**
+ JupyterHub 지원을 추가했습니다. 자세한 내용은 [JupyterHub](emr-jupyterhub.md) 단원을 참조하십시오.

**변경 사항, 향상된 기능 및 해결된 문제**
+ EMRFS
  + Amazon S3에 대한 요청의 userAgent 문자열이 간접 호출하는 보안 주체의 사용자 및 그룹 정보를 포함하도록 업데이트되었습니다. 이는 보다 포괄적인 요청 추적을 위해 AWS CloudTrail 로그와 함께 사용할 수 있습니다.
+ HBase
  +  포함된 [HBASE-20447](https://issues.apache.org/jira/browse/HBASE-20447)은 특히 분할된 리전과 함께 캐시 문제를 야기할 수 있는 문제를 해결합니다.
+ MXnet
  + OpenCV 라이브러리를 추가했습니다.
+ Spark
  + Spark가 EMRFS를 사용하여 Amazon S3 위치에 Parquet 파일을 쓸 때, FileOutputCommitter 알고리즘이 버전 1 대신 버전 2를 사용하도록 업데이트되었습니다. 따라서 이름 변경 횟수가 감소하여 애플리케이션 성능이 개선됩니다. 다음 애플리케이션에는 이 변경이 영향을 미치지 않습니다.
    + Spark 이외의 애플리케이션 
    + HDFS(여전히 버전 1의 FileOutputCommitter를 사용)와 같이 다른 파일 시스템에 쓰는 애플리케이션
    + 텍스트 또는 csv 같이 이미 EMRFS 직접 쓰기를 사용하는 다른 출력 형식을 사용하는 애플리케이션

**알려진 문제**
+ JupyterHub
  + 클러스터를 생성할 때 구성 분류를 사용하여 JupyterHub 및 개별 Jupyter Notebook을 설정하는 것은 지원되지 않습니다. 각 사용자에 대해 수동으로 jupyterhub\$1config.py 파일 및 jupyter\$1notebook\$1config.py 파일을 편집하십시오. 자세한 내용은 [JupyterHub 구성](emr-jupyterhub-configure.md) 단원을 참조하십시오.
  + JupyterHub는 프라이빗 서브넷 내의 클러스터에서 시작되지 않으며 `Error: ENOENT: no such file or directory, open '/etc/jupyter/conf/server.crt' ` 메시지와 함께 실패합니다. 이는 자체 서명된 인증서를 생성하는 스크립트의 오류에 의해 야기됩니다. 다음 차선책을 사용하여 자체 서명된 인증서를 생성합니다. 모든 명령은 프라이머리 노드에 연결되어 있는 동안 실행됩니다.

    1. 컨테이너에서 프라이머리 노드로 인증서 생성 스크립트를 복사합니다.

       ```
       sudo docker cp jupyterhub:/tmp/gen_self_signed_cert.sh ./
       ```

    1. 아래와 같이 텍스트 편집기를 사용하여 23행을 변경하고 퍼블릭 호스트 이름을 로컬 호스트 이름으로 변경합니다.

       ```
       local hostname=$(curl -s $EC2_METADATA_SERVICE_URI/local-hostname)
       ```

    1. 스크립트를 실행하여 자체 서명된 인증서를 생성합니다.

       ```
       sudo bash ./gen_self_signed_cert.sh
       ```

    1. 스크립트가 생성하는 인증서 파일을 `/etc/jupyter/conf/` 디렉터리로 이동합니다.

       ```
       sudo mv /tmp/server.crt /tmp/server.key /etc/jupyter/conf/
       ```

    JupyterHub의 재시작과 200 응답 코드의 반환을 확인하기 위해 `jupyter.log` 파일을 `tail`할 수 있습니다. 예제:

    ```
    tail -f /var/log/jupyter/jupyter.log
    ```

    그러면 다음과 비슷한 응답이 돌아옵니다.

    ```
    # [I 2018-06-14 18:56:51.356 JupyterHub app:1581] JupyterHub is now running at https://:9443/
    # 19:01:51.359 - info: [ConfigProxy] 200 GET /api/routes
    ```
+ 프라이머리 노드가 재부팅되거나 인스턴스 컨트롤러가 다시 시작된 후에는 CloudWatch 지표가 수집되지 않으며 Amazon EMR 버전 5.14.0, 5.15.0 또는 5.16.0에서는 자동 조정 기능을 사용할 수 없습니다. 이 문제는 Amazon EMR 5.17.0에서 수정되었습니다.

## 5.14.0 구성 요소 버전
<a name="emr-5140-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.23.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| jupyterhub | 0.8.1 | Jupyter Notebook용 다중 사용자 서버 | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.1.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.194 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.194 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.14.0 구성 분류
<a name="emr-5140-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.14.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| container-log4j | Hadoop YARN container-log4j.properties 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| jupyter-notebook-conf | Jupyter Notebook jupyter\$1notebook\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-hub-conf | JupyterHubs jupyterhub\$1config.py 파일에서 값을 변경합니다. | 
| jupyter-sparkmagic-conf | Sparkmagic config.json 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.13.1
<a name="emr-5131-release"></a>

## 5.13.1 애플리케이션 버전
<a name="emr-5131-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.13.1 | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.297 | 1.11.297 | 1.11.267 | 1.11.267 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.2 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.194 | 0.188 | 0.188 | 
| Spark | 2.3.0 | 2.3.0 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.13.1 릴리스 정보
<a name="emr-5131-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.13.1 구성 요소 버전
<a name="emr-5131-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.22.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.0.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.194 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.194 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.13.1 구성 분류
<a name="emr-5131-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.13.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.13.0
<a name="emr-5130-release"></a>

## 5.13.0 애플리케이션 버전
<a name="emr-5130-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.13.0 | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.297 | 1.11.267 | 1.11.267 | 1.11.267 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.2 | 1.4.0 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-2 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.194 | 0.188 | 0.188 | 0.188 | 
| Spark | 2.3.0 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.13.0 릴리스 정보
<a name="emr-5130-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.13.0에 대한 정보가 포함됩니다. 변경 사항은 5.12.0에 관련됩니다.

**업그레이드**
+ Spark를 2.3.0으로 업그레이드
+ HBase를 1.4.2로 업그레이드
+ Presto를 0.194로 업그레이드
+ 1.11.297 AWS SDK for Java 로 업그레이드됨

**변경 사항, 향상된 기능 및 해결된 문제**
+ Hive
  + [HIVE-15436](https://issues.apache.org/jira/browse/HIVE-15436)을 백포트했습니다. Hive API를 뷰만 반환하도록 개선했습니다.

**알려진 문제**
+ 현재 MXNet에는 OpenCV 라이브러리가 포함되어 있지 않습니다.

## 5.13.0 구성 요소 버전
<a name="emr-5130-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.10.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.22.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-2 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-2 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-2 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-2 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.0.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.194 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.194 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 | 
| spark-client | 2.3.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.3.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.3.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.3.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.13.0 구성 분류
<a name="emr-5130-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.13.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.12.3
<a name="emr-5123-release"></a>

## 5.12.3 애플리케이션 버전
<a name="emr-5123-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.12.3 | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.267 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.1.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 1.0.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.188 | 0.188 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.3 릴리스 정보
<a name="emr-5123-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.12.3 구성 요소 버전
<a name="emr-5123-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.9.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.21.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.0.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.188 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.188 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.12.3 구성 분류
<a name="emr-5123-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.12.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.12.2
<a name="emr-5122-release"></a>

## 5.12.2 애플리케이션 버전
<a name="emr-5122-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.12.2 | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.267 | 1.11.267 | 1.11.267 | 1.11.238 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.4.0 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.1.0 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 1.0.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.188 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.2 릴리스 정보
<a name="emr-5122-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.12.2에 대한 정보가 포함됩니다. 변경 사항은 5.12.1에 관련됩니다.

최초 릴리스 날짜: 2018년 8월 29일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 잠재적인 보안 취약점을 해결합니다.

## 5.12.2 구성 요소 버전
<a name="emr-5122-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.9.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.21.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.0.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.188 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.188 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.12.2 구성 분류
<a name="emr-5122-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.12.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.12.1
<a name="emr-5121-release"></a>

## 5.12.1 애플리케이션 버전
<a name="emr-5121-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.12.1 | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.267 | 1.11.267 | 1.11.238 | 1.11.238 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.4.0 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.4.0 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.1.0 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 1.0.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.13.0-HBase-1.4 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.188 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.1 릴리스 정보
<a name="emr-5121-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.12.1에 대한 정보가 포함됩니다. 변경 사항은 5.12.0에 관련됩니다.

최초 릴리스 날짜: 2018년 3월 29일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 잠재적인 취약성을 해결하기 위해 Amazon EMR에 대한 기본 Amazon Linux AMI의 Amazon Linux 커널을 업데이트했습니다.

## 5.12.1 구성 요소 버전
<a name="emr-5121-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.9.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.21.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.0.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.188 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.188 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.12.1 구성 분류
<a name="emr-5121-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.12.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.12.0
<a name="emr-5120-release"></a>

## 5.12.0 애플리케이션 버전
<a name="emr-5120-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.267 | 1.11.238 | 1.11.238 | 1.11.238 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.8.3-amzn-0 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-1 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.13.0-HBase-1.4 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.188 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.12.0 릴리스 정보
<a name="emr-5120-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.12.0에 대한 정보가 포함됩니다. 변경 사항은 5.11.1에 관련됩니다.

**업그레이드**
+ AWS SDK for Java 1.11.238 " 1.11.267. 자세한 내용은 GitHub에서 [AWS SDK for Java Change Log](https://github.com/aws/aws-sdk-java/blob/master/CHANGELOG.md)를 참조하세요.
+ Hadoop 2.7.3 ⇒ 2.8.3. 자세한 내용은 [Apache Hadoop Releases](http://hadoop.apache.org/releases.html)를 참조하십시오.
+ Flink 1.3.2 ⇒ 1.4.0. 자세한 내용은 [Apache Flink 1.4.0 Release Announcement](https://flink.apache.org/news/2017/12/12/release-1.4.0.html)를 참조하십시오.
+ HBase 1.3.1 ⇒ 1.4.0. 자세한 내용은 [HBase Release Announcement](http://mail-archives.apache.org/mod_mbox/www-announce/201712.mbox/%3CCA+RK=_AU+tB=7SU1HRbeKVEd-sKA5WcJo3oa43vQ6PMB3L9pgQ@mail.gmail.com%3E)를 참조하십시오.
+ Hue 4.0.1 ⇒ 4.1.0. 자세한 내용은 [릴리스 정보](https://docs.gethue.com/releases/release-notes-4.10.0/)를 참조하십시오.
+ MxNet 0.12.0 ⇒ 1.0.0. 자세한 내용은 GitHub에서 [MXNet Change Log](https://github.com/apache/incubator-mxnet/releases/tag/1.0.0)를 참조하십시오.
+ Presto 0.187 ⇒ 0.188. 자세한 내용은 [릴리스 정보](https://prestodb.io/docs/current/release/release-0.188.html)를 참조하십시오.

**변경 사항, 향상된 기능 및 해결된 문제**
+ **Hadoop**
  + `yarn.resourcemanager.decommissioning.timeout` 속성을 `yarn.resourcemanager.nodemanager-graceful-decommission-timeout-secs`로 변경했습니다. 이 속성을 사용하여 클러스터 축소를 사용자 지정할 수 있습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [클러스터 스케일 다운](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scaledown-behavior.html)을 참조하세요.
  + Hadoop CLI는 직접 복사를 지정하는 `-d`(복사) 명령에 `cp` 옵션을 추가했습니다. 이를 사용하면 중간 `.COPYING` 파일을 생성하지 않아도 되므로 Amazon S3 사이에서 데이터를 더 빠르게 복사할 수 있습니다. 자세한 내용은 [HADOOP-12384](https://issues.apache.org/jira/browse/HADOOP-12384)를 참조하십시오.
+ **Pig**
  + Pig 환경 속성의 구성을 단순화하는 `pig-env` 구성 분류를 추가했습니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.
+ **Presto**
  + Presto `presto-connector-redshift` 구성 파일에서 값을 구성하는 데 사용할 수 있는 `redshift.properties` 구성 분류를 추가했습니다. 자세한 내용은 Presto 문서의 [Redshift Connector](https://prestodb.io/docs/current/connector/redshift.html) 및 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.
  + EMRFS에 대한 Presto 지원이 추가되었으며 이것이 기본 구성입니다. 이전 Amazon EMR 릴리스에서는 유일한 옵션인 PrestoS3FileSystem을 사용했습니다. 자세한 내용은 [EMRFS 및 PrestoS3FileSystem 구성](emr-presto-considerations.md#emr-presto-prestos3) 단원을 참조하십시오.
**참고**  
Amazon EMR 버전 5.12.0을 사용하여 Amazon S3에서 기본 데이터를 쿼리하는 경우 Presto 오류가 발생할 수 있습니다. 이는 Presto가 `emrfs-site.xml`에서 구성 분류 값을 가져오지 못하기 때문입니다. 이 문제를 해결하려면 `usr/lib/presto/plugin/hive-hadoop2/` 아래에 `emrfs` 하위 디렉터리를 생성하고 `usr/lib/presto/plugin/hive-hadoop2/emrfs`에서 기존 `/usr/share/aws/emr/emrfs/conf/emrfs-site.xml` 파일에 대한 기호 링크를 생성합니다. 그런 다음, presto-server 프로세스를 다시 시작합니다(`sudo presto-server stop` 및 `sudo presto-server start`의 순서대로)
+ **Spark**
  + [SPARK-22036: BigDecimal multiplication sometimes returns null](https://issues.apache.org/jira/browse/SPARK-22036)을 백포트했습니다.

**알려진 문제**
+ MXNet에는 OpenCV 라이브러리가 포함되어 있지 않습니다.
+ 클러스터 노드에 R이 기본적으로 설치되어 있지 않으므로 사용자 지정 AMI를 사용하여 만든 클러스터에는 SparkR을 사용할 수 없습니다.

## 5.12.0 구성 요소 버전
<a name="emr-5120-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0.1 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.9.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.21.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.4.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.8.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.8.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.8.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.8.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.8.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.8.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.8.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.8.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.8.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.4.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.4.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.4.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.4.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.4.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.3.2-amzn-1 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.2-amzn-1 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-1 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-1 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.2-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.1.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 1.0.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.1.85 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.13.0-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.13.0-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.188 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.188 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.12.0 구성 분류
<a name="emr-5120-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.12.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-env | Pig 환경에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-redshift | Presto redshift.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.11.4
<a name="emr-5114-release"></a>

## 5.11.4 애플리케이션 버전
<a name="emr-5114-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.238 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.4 릴리스 정보
<a name="emr-5114-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.11.4 구성 요소 버전
<a name="emr-5114-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.8.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.20.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리. | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트. | 
| hadoop-kms-server | 2.7.3-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버. | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스. | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.2-amzn-0 | hcatalog-server에 대하 작업을 수행하기 위한 'hcat' 명령줄 클라이언트. | 
| hcatalog-server | 2.3.2-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스. | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 0.12.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.0.176 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.187 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.187 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.11.4 구성 분류
<a name="emr-5114-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.11.4 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.11.3
<a name="emr-5113-release"></a>

## 5.11.3 애플리케이션 버전
<a name="emr-5113-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.11.3 | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.238 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.3 릴리스 정보
<a name="emr-5113-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.11.3에 대한 정보가 포함됩니다. 변경 사항은 5.11.2에 관련됩니다.

최초 릴리스 날짜: 2019년 7월 18일

**변경 사항, 향상된 기능 및 해결된 문제**
+ TCP SACK 서비스 거부 문제([AWS-2019-005](https://aws.amazon.com/security/security-bulletins/AWS-2019-005/))를 비롯한 중요한 Linux 커널 보안 업데이트를 포함하도록 Amazon EMR의 기본 Amazon Linux AMI를 업데이트했습니다.

## 5.11.3 구성 요소 버전
<a name="emr-5113-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.8.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.20.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리. | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트. | 
| hadoop-kms-server | 2.7.3-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버. | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스. | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.2-amzn-0 | hcatalog-server에 대하 작업을 수행하기 위한 'hcat' 명령줄 클라이언트. | 
| hcatalog-server | 2.3.2-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스. | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 0.12.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.0.176 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.187 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.187 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.11.3 구성 분류
<a name="emr-5113-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.11.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.11.2
<a name="emr-5112-release"></a>

## 5.11.2 애플리케이션 버전
<a name="emr-5112-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.11.2 | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.238 | 1.11.238 | 1.11.238 | 1.11.221 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.2 릴리스 정보
<a name="emr-5112-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.11.2에 대한 정보가 포함됩니다. 변경 사항은 5.11.1에 관련됩니다.

최초 릴리스 날짜: 2018년 8월 29일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 잠재적인 보안 취약점을 해결합니다.

## 5.11.2 구성 요소 버전
<a name="emr-5112-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.8.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.20.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리. | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트. | 
| hadoop-kms-server | 2.7.3-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버. | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스. | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.2-amzn-0 | hcatalog-server에 대하 작업을 수행하기 위한 'hcat' 명령줄 클라이언트. | 
| hcatalog-server | 2.3.2-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스. | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 0.12.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.0.176 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.187 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.187 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.11.2 구성 분류
<a name="emr-5112-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.11.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.11.1
<a name="emr-5111-release"></a>

## 5.11.1 애플리케이션 버전
<a name="emr-5111-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.11.1 | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.238 | 1.11.238 | 1.11.221 | 1.11.221 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 
| Hive | 2.3.2-amzn-0 | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 | 0.12.0 | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.187 | 
| Spark | 2.2.1 | 2.2.1 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.1 릴리스 정보
<a name="emr-5111-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.11.1에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.8.0 릴리스에 관련됩니다.

최초 릴리스 날짜: 2018년 1월 22일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 추론적 실행과 관련된 취약성을 해결하기 위해 Amazon EMR의 기본 Amazon Linux AMI에서 Amazon Linux 커널을 업데이트했습니다(CVE-2017-5715, CVE-2017-5753, CVE-2017-5754). 자세한 내용은 [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/) 단원을 참조하십시오.

## 5.11.1 구성 요소 버전
<a name="emr-5111-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.8.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.20.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리. | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트. | 
| hadoop-kms-server | 2.7.3-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버. | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스. | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.2-amzn-0 | hcatalog-server에 대하 작업을 수행하기 위한 'hcat' 명령줄 클라이언트. | 
| hcatalog-server | 2.3.2-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스. | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 0.12.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.0.176 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.187 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.187 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.11.1 구성 분류
<a name="emr-5111-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.11.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.11.0
<a name="emr-5110-release"></a>

## 5.11.0 애플리케이션 버전
<a name="emr-5110-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.11.0 | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.238 | 1.11.221 | 1.11.221 | 1.11.183 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 2.7, 3.4 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-6 | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 
| Hive | 2.3.2-amzn-0 | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 | 0.12.0 |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.187 | 0.184 | 
| Spark | 2.2.1 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.11.0 릴리스 정보
<a name="emr-5110-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.11.0에 대한 정보가 포함됩니다. 변경 사항은 5.10.0에 관련됩니다.

**업그레이드**
+ Hive 2.3.2
+ Spark 2.2.1
+ SDK for Java 1.11.238

**새로운 기능**
+ Spark
  + 스팟 인스턴스 사용 시 Spark 폐기를 개선하는 `spark.decommissioning.timeout.threshold` 설정이 추가되었습니다. 자세한 내용은 [노드 서비스 해제 동작 구성](emr-spark-configure.md#spark-decommissioning) 단원을 참조하십시오.
  + Amazon SageMaker Spark 및 [Amazon SageMaker](https://aws.amazon.com/sagemaker/)와 Spark의 통합을 위한 관련 종속 항목을 설치하는 `aws-sagemaker-spark-sdk` 구성 요소가 Spark에 추가되었습니다. Amazon SageMaker Spark를 사용하면 Amazon SageMaker 단계를 사용하여 Spark 기계 학습(ML) 파이프라인을 생성할 수 있습니다. 자세한 내용은 GitHub의 [SageMaker Spark Readme](https://github.com/aws/sagemaker-spark/blob/master/README.md)와 [Amazon SageMaker 개발자 안내서](https://docs.aws.amazon.com/sagemaker/latest/dg/apache-spark.html)의 *Amazon SageMaker와 함께 Apache Spark 사용*을 참조하세요.

**알려진 문제**
+ MXNet에는 OpenCV 라이브러리가 포함되어 있지 않습니다.
+ Hive 2.3.2에서는 기본적으로 `hive.compute.query.using.stats=true`를 설정합니다. 따라서 쿼리에서는 데이터를 직접 가져오지 않고 기존 통계에서 데이터를 가져오므로 혼동될 수 있습니다. 예를 들어, `hive.compute.query.using.stats=true`인 테이블이 있을 때 새 파일을 `LOCATION` 테이블에 업로드하고 테이블에서 `SELECT COUNT(*)` 쿼리를 실행하면 추가된 행이 선택되지 않고 통계에 있는 수치가 반환됩니다.

  차선책으로 `ANALYZE TABLE` 명령을 사용하여 새 통계를 수집하거나 `hive.compute.query.using.stats=false`를 설정합니다. 자세한 내용은 Apache Hive 설명서의 [Statistics in Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive)를 참조하십시오.

## 5.11.0 구성 요소 버전
<a name="emr-5110-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| aws-sagemaker-spark-sdk | 1.0 | Amazon SageMaker Spark SDK | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.8.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.20.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-6 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-6 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-6 | HDFS 명령줄 클라이언트 및 라이브러리. | 
| hadoop-hdfs-namenode | 2.7.3-amzn-6 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-6 | HDFS 작업에 대한 HTTP 엔드포인트. | 
| hadoop-kms-server | 2.7.3-amzn-6 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버. | 
| hadoop-mapred | 2.7.3-amzn-6 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리. | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-6 | 개별 노드의 컨테이너를 관리하는 YARN 서비스. | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-6 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스. | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-6 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스. | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.2-amzn-0 | hcatalog-server에 대하 작업을 수행하기 위한 'hcat' 명령줄 클라이언트. | 
| hcatalog-server | 2.3.2-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.2-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.2-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.2-amzn-0 | Hive-hbase client. | 
| hive-metastore-server | 2.3.2-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.2-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스. | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 0.12.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.0.176 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.187 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.187 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.11.0 구성 분류
<a name="emr-5110-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.11.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.10.1
<a name="emr-5101-release"></a>

## 5.10.1 애플리케이션 버전
<a name="emr-5101-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.10.1 | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.221 | 1.11.221 | 1.11.183 | 1.11.183 | 
| Python | 2.7, 3.4 | 2.7, 3.4 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.2 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-5 | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 
| Hive | 2.3.1-amzn-0 | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 4.0.1 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating | 
| MXNet | 0.12.0 | 0.12.0 |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 | 
| Presto | 0.187 | 0.187 | 0.184 | 0.184 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.3 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.10.1 릴리스 정보
<a name="emr-5101-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.10.1 구성 요소 버전
<a name="emr-5101-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.7.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.20.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트. | 
| hadoop-hdfs-datanode | 2.7.3-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스. | 
| hadoop-hdfs-library | 2.7.3-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스. | 
| hadoop-httpfs-server | 2.7.3-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층 및 테이블, HCatalog를 제공하는 서비스. | 
| hcatalog-webhcat-server | 2.3.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트. | 
| hive-client | 2.3.1-amzn-0 | Hive 명령줄 클라이언트. | 
| hive-hbase | 2.3.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스. | 
| hive-server2 | 2.3.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 0.12.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.0.176 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.187 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.187 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.10.1 구성 분류
<a name="emr-5101-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.10.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.10.0
<a name="emr-5100-release"></a>

## 5.10.0 애플리케이션 버전
<a name="emr-5100-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [https://mxnet.incubator.apache.org/](https://mxnet.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.10.0 | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.221 | 1.11.183 | 1.11.183 | 1.11.160 | 
| Python | 2.7, 3.4 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.2 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-5 | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 
| Hive | 2.3.1-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 4.0.1 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating | 0.4.0-incubating |  -  | 
| MXNet | 0.12.0 |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 
| Presto | 0.187 | 0.184 | 0.184 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.3 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.10.0 릴리스 정보
<a name="emr-5100-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.10.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.9.0 릴리스에 관련됩니다.

**업그레이드**
+ AWS SDK for Java 1.11.221
+ Hive 2.3.1
+ Presto 0.187

**새로운 기능**
+ Kerberos 인증에 대한 지원이 추가되었습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [Kerberos 인증 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-kerberos.html)을 참조하세요.
+ EMRFS의 IAM 역할에 대한 지원이 추가되었습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [Amazon S3에 대한 EMRFS 요청을 위해 IAM 역할 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-emrfs-iam-role.html)을 참조하세요.
+ GPU 기반의 P2 및 P3 인스턴스 유형에 대한 지원을 추가했습니다. 자세한 내용은 [Amazon EC2 P2 인스턴스](https://aws.amazon.com/ec2/instance-types/p2/) 및 [Amazon EC2 P3 인스턴스](https://aws.amazon.com/ec2/instance-types/p3/)를 참조하세요. 기본적으로 이러한 유형의 인스턴스에 NVIDIA 드라이버 384.81 및 CUDA 드라이버 9.0.176가 설치됩니다.
+ [Apache MXNet](emr-mxnet.md) 지원이 추가되었습니다.

**변경 사항, 향상된 기능 및 해결된 문제**
+ Presto
  + Glue 데이터 카탈로그를 기본 Hive AWS 메타스토어로 사용하기 위한 지원이 추가되었습니다. 자세한 내용은 [AWS Glue 데이터 카탈로그에서 Presto 사용을](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-presto.html#emr-presto-glue) 참조하세요.
  + [지리 공간 함수](https://prestodb.io/docs/current/functions/geospatial.html)에 대한 지원이 추가되었습니다.
  + 조인의 [디스크로 유출](https://prestodb.io/docs/current/admin/spill.html)에 대한 지원이 추가되었습니다.
  + [Redshift 커넥터](https://prestodb.io/docs/current/connector/redshift.html)에 대한 지원이 추가되었습니다.
+ Spark
  + [SPARK-20640](https://issues.apache.org/jira/browse/SPARK-20640)을 백포트했습니다. 이를 통해 `spark.shuffle.registration.timeout` 및 `spark.shuffle.registration.maxAttempts` 속성을 사용하여 셔플 등록에 대한 제시도와 rpc 제한 시간을 구성할 수 있습니다.
  + 사용자 지정 OutputFormat를 비 HDFS 위치에 기록할 때 발생하는 오류를 교정하는 [SPARK-21549](https://issues.apache.org/jira/browse/SPARK-21549)를 백포트했습니다.
+ [하둡-13270](https://issues.apache.org/jira/browse/HADOOP-13270)을 백포트했습니다.
+ Numpy, Scipy 및 Matplotlib 라이브러리가 기본 Amazon EMR AMI에서 제거되었습니다. 애플리케이션에서 이러한 라이브러리가 필요한 경우, 애플리케이션 리포지토리에서 라이브러리를 사용할 수 있기 때문에 부트스트랩 작업 시 `yum install`을 사용하여 모든 노드에 라이브러리를 설치할 수 있습니다.
+ Amazon EMR 기본 AMI는 더 이상 애플리케이션 RPM 패키지를 포함하고 있지 않기 때문에 RPM 패키지가 더 이상 클러스터 노드에 존재하지 않습니다. 이제 사용자 지정 AMI 및 Amazon EMR 기본 AMI는 Amazon S3에서 RPM 패키지 리포지토리를 참조합니다.
+ Amazon EC2에 초당 요금이 도입됨에 따라 이제 기본 **스케일 다운 동작**은 **인스턴스 시간에 종료**가 아닌 **작업 완료 시 종료**입니다. 자세한 내용은 [클러스터 축소 구성](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-scaledown-behavior.html)을 참조하세요.

**알려진 문제**
+ MXNet에는 OpenCV 라이브러리가 포함되어 있지 않습니다.
+ Hive 2.3.1에서는 기본적으로 `hive.compute.query.using.stats=true`를 설정합니다. 따라서 쿼리에서는 데이터를 직접 가져오지 않고 기존 통계에서 데이터를 가져오므로 혼동될 수 있습니다. 예를 들어, `hive.compute.query.using.stats=true`인 테이블이 있을 때 새 파일을 `LOCATION` 테이블에 업로드하고 테이블에서 `SELECT COUNT(*)` 쿼리를 실행하면 추가된 행이 선택되지 않고 통계에 있는 수치가 반환됩니다.

  차선책으로 `ANALYZE TABLE` 명령을 사용하여 새 통계를 수집하거나 `hive.compute.query.using.stats=false`를 설정합니다. 자세한 내용은 Apache Hive 설명서의 [Statistics in Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive)를 참조하십시오.

## 5.10.0 구성 요소 버전
<a name="emr-5100-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.5.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터. | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.7.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.20.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-5 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트. | 
| hadoop-hdfs-datanode | 2.7.3-amzn-5 | 블록을 저장하는 HDFS 노드 수준 서비스. | 
| hadoop-hdfs-library | 2.7.3-amzn-5 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-5 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스. | 
| hadoop-httpfs-server | 2.7.3-amzn-5 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-5 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-5 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-5 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-5 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-5 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층 및 테이블, HCatalog를 제공하는 서비스. | 
| hcatalog-webhcat-server | 2.3.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트. | 
| hive-client | 2.3.1-amzn-0 | Hive 명령줄 클라이언트. | 
| hive-hbase | 2.3.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스. | 
| hive-server2 | 2.3.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mxnet | 0.12.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| nvidia-cuda | 9.0.176 | Nvidia 드라이버와 Cuda 도구 키트 | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.187 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.187 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.3 | 대화형 데이터 분석이 가능한 웹 기반 노트북. | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.10.0 구성 분류
<a name="emr-5100-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.10.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.9.1
<a name="emr-591-release"></a>

## 5.9.1 애플리케이션 버전
<a name="emr-591-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.9.1 | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.183 | 1.11.183 | 1.11.160 | 1.11.160 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.2 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-4 | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 4.0.1 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating | 0.4.0-incubating |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.184 | 0.184 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.9.1 릴리스 정보
<a name="emr-591-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.9.1 구성 요소 버전
<a name="emr-591-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.7.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.19.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.184 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.184 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.9.1 구성 분류
<a name="emr-591-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.9.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.9.0
<a name="emr-590-release"></a>

## 5.9.0 애플리케이션 버전
<a name="emr-590-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [https://livy.incubator.apache.org/](https://livy.incubator.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.9.0 | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.183 | 1.11.160 | 1.11.160 | 1.11.160 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.2 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-4 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 4.0.1 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy | 0.4.0-incubating |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.17.0 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.184 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.9.0 릴리스 정보
<a name="emr-590-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.9.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.8.0 릴리스에 관련됩니다.

릴리스 날짜: 2017년 10월 5일

최근 기능 업데이트: 2017년 10월 12일

**업그레이드**
+ AWS SDK for Java 버전 1.11.183
+ Flink 1.3.2
+ Hue 4.0.1
+ Pig 0.17.0
+ Presto 0.184

**새로운 기능**
+ Livy 지원이 추가되었습니다(버전 0.4.0-incubating). 자세한 내용은 [Apache Livy](emr-livy.md) 단원을 참조하십시오.
+ Spark용 Hue Notebook에 대한 지원이 추가되었습니다.
+ i3 시리즈 Amazon EC2 인스턴스에 대한 지원이 추가되었습니다(2017년 10월 12일).

**변경 사항, 향상된 기능 및 해결된 문제**
+ Spark
  + Spark가 수동 크기 조절 또는 자동 조정 정책 요청으로 인한 노드 종료를 보다 원활하게 처리할 수 있도록 도움을 주는 새로운 기능 세트를 추가했습니다. 자세한 내용은 [노드 서비스 해제 동작 구성](emr-spark-configure.md#spark-decommissioning) 단원을 참조하십시오.
  + SSL은 블록 전송 서비스의 전송 중 암호화 시 3DES를 대신해 사용되며, AES-NI와 함께 Amazon EC2 인스턴스 유형을 사용할 때 성능을 개선합니다.
  + [SPARK-21494](https://issues.apache.org/jira/browse/SPARK-21494)를 백포트했습니다.
+ Zeppelin
  + [ZEPPELIN-2377](https://issues.apache.org/jira/browse/ZEPPELIN-2377)을 백포트했습니다.
+ HBase
  + [HBase-18533](https://issues.apache.org/jira/browse/HBASE-18533) 패치를 추가했습니다. 이 패치는 `hbase-site` 구성 분류를 사용하여 HBase BucketCache 구성을 위한 추가적인 값들을 허용합니다.
+ Hue
  + Hue의 Hive 쿼리 편집기에 대한 AWS Glue 데이터 카탈로그 지원이 추가되었습니다.
  + 기본적으로 Hue의 수퍼유저는 Amazon EMR IAM 역할에서 액세스할 수 있는 모든 파일에 액세스할 수 있습니다. 새로 생성된 사용자에게는 Amazon S3 파일 브라우저에 액세스할 수 있는 권한이 자동으로 부여되지 않기 때문에 사용자의 그룹에 대해 활성화된 `filebrowser.s3_access` 권한이 있어야 합니다.
+  AWS Glue 데이터 카탈로그를 사용하여 생성된 기본 JSON 데이터에 액세스할 수 없는 문제를 해결했습니다.

**알려진 문제**
+ 모든 애플리케이션을 설치하고 기본 Amazon EBS 루트 볼륨 크기를 변경하지 않은 상태에서 클러스터가 시작되지 않습니다. 해결 방법으로의 `aws emr create-cluster` 명령을 사용하고 더 큰 `--ebs-root-volume-size` 파라미터를 AWS CLI 지정합니다.
+ Hive 2.3.0에서는 기본적으로 `hive.compute.query.using.stats=true`를 설정합니다. 따라서 쿼리에서는 데이터를 직접 가져오지 않고 기존 통계에서 데이터를 가져오므로 혼동될 수 있습니다. 예를 들어, `hive.compute.query.using.stats=true`인 테이블이 있을 때 새 파일을 `LOCATION` 테이블에 업로드하고 테이블에서 `SELECT COUNT(*)` 쿼리를 실행하면 추가된 행이 선택되지 않고 통계에 있는 수치가 반환됩니다.

  차선책으로 `ANALYZE TABLE` 명령을 사용하여 새 통계를 수집하거나 `hive.compute.query.using.stats=false`를 설정합니다. 자세한 내용은 Apache Hive 설명서의 [Statistics in Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive)를 참조하십시오.

## 5.9.0 구성 요소 버전
<a name="emr-590-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.7.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.19.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.2 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션입니다. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 4.0.1 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| livy-server | 0.4.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.184 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.184 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.9.0 구성 분류
<a name="emr-590-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.9.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| livy-conf | Livy livy.conf 파일에서 값을 변경합니다. | 
| livy-env | Livy 환경에서 값을 변경합니다. | 
| livy-log4j | Livy log4j.properties 설정을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.8.3
<a name="emr-583-release"></a>

## 5.8.3 애플리케이션 버전
<a name="emr-583-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.8.3 | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.160 | 1.11.160 | 1.11.160 | 1.11.160 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.2.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.3 릴리스 정보
<a name="emr-583-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.8.3 구성 요소 버전
<a name="emr-583-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.6.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.18.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-1 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.8.3 구성 분류
<a name="emr-583-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.8.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.8.2
<a name="emr-582-release"></a>

## 5.8.2 애플리케이션 버전
<a name="emr-582-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.8.2 | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.160 | 1.11.160 | 1.11.160 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.2.0 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.2 릴리스 정보
<a name="emr-582-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.8.2에 대한 정보가 포함됩니다. 변경 사항은 5.8.1에 관련됩니다.

최초 릴리스 날짜: 2018년 3월 29일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 잠재적인 취약성을 해결하기 위해 Amazon EMR에 대한 기본 Amazon Linux AMI의 Amazon Linux 커널을 업데이트했습니다.

## 5.8.2 구성 요소 버전
<a name="emr-582-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.6.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.18.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-1 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.8.2 구성 분류
<a name="emr-582-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.8.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.8.1
<a name="emr-581-release"></a>

## 5.8.1 애플리케이션 버전
<a name="emr-581-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.8.1 | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.160 | 1.11.160 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.1 | 
| HCatalog | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.2.0 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.2 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.1 릴리스 정보
<a name="emr-581-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.8.1에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.8.0 릴리스에 관련됩니다.

최초 릴리스 날짜: 2018년 1월 22일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 추론적 실행과 관련된 취약성을 해결하기 위해 Amazon EMR의 기본 Amazon Linux AMI에서 Amazon Linux 커널을 업데이트했습니다(CVE-2017-5715, CVE-2017-5753, CVE-2017-5754). 자세한 내용은 [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/) 단원을 참조하십시오.

## 5.8.1 구성 요소 버전
<a name="emr-581-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.6.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.18.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-1 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.8.1 구성 분류
<a name="emr-581-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.8.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.8.0
<a name="emr-580-release"></a>

## 5.8.0 애플리케이션 버전
<a name="emr-580-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.8.0 | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.11.160 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.1 | 1.3.0 | 1.3.0 | 1.2.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.1 | 1.3.0 | 
| HCatalog | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-3 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.3.0-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-1 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.2.0 | 2.1.1 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.2 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.8.0 릴리스 정보
<a name="emr-580-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.8.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.7.0 릴리스에 관련됩니다.

최초 릴리스 날짜: 2017년 8월 10일

최근 기능 업데이트: 2017년 9월 25일

**업그레이드**
+ AWS SDK 1.11.160
+ Flink 1.3.1
+ Hive 2.3.0 자세한 내용은 Apache Hive 사이트의 [릴리스 정보](https://issues.apache.org/jira/secure/ConfigureReleaseNote.jspa?projectId=12310843&version=12340269)를 참조하세요.
+ Spark 2.2.0 자세한 내용은 Apache Spark 사이트의 [릴리스 정보](https://spark.apache.org/releases/spark-release-2-2-0.html)를 참조하세요.

**새로운 기능**
+ 애플리케이션 이력 보기 지원이 추가되었습니다(2017년 9월 25일). 자세한 내용은 *Amazon EMR 관리 안내서*에서 [애플리케이션 기록 보기](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-cluster-application-history.html)를 참조하세요.

**변경 사항, 향상된 기능 및 해결된 문제**
+ ** AWS Glue 데이터 카탈로그와 통합**
  + Hive 및 Spark SQL이 AWS Glue 데이터 카탈로그를 Hive 메타데이터 스토어로 사용할 수 있는 기능이 추가되었습니다. 자세한 내용은 [Glue 데이터 카탈로그를 Hive의 AWS 메타스토어로 사용](emr-hive-metastore-glue.md) 및 [Amazon EMR에서 Spark와 함께 AWS Glue 데이터 카탈로그 사용](emr-spark-glue.md) 섹션을 참조하세요.
+ YARN 애플리케이션에 대한 기록 데이터 및 Spark 애플리케이션에 대한 추가 세부 정보를 볼 수 있는 클러스터 정보에 **애플리케이션 이력**을 추가했습니다. 자세한 내용은 *Amazon EMR 관리 안내서*에서 [애플리케이션 기록 보기](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-cluster-application-history.html)를 참조하세요.
+ **Oozie**
  + [OOZIE-2748](https://issues.apache.org/jira/browse/OOZIE-2748)을 백포트했습니다.
+ **Hue**
  + [HUE-5859](https://issues.cloudera.org/browse/HUE-5859)를 백포트했습니다
+ **HBase**
  + `getMasterInitializedTime`을 사용하여 JMX(Java Management Extensions)를 통해 HBase 마스터 서버 시작 시간을 공개하도록 패치를 추가했습니다.
  + 클러스터 시작 시간을 개선하는 패치를 추가했습니다.

**알려진 문제**
+ 모든 애플리케이션을 설치하고 기본 Amazon EBS 루트 볼륨 크기를 변경하지 않은 상태에서 클러스터가 시작되지 않습니다. 해결 방법으로의 `aws emr create-cluster` 명령을 사용하고 더 큰 `--ebs-root-volume-size` 파라미터를 AWS CLI 지정합니다.
+ Hive 2.3.0에서는 기본적으로 `hive.compute.query.using.stats=true`를 설정합니다. 따라서 쿼리에서는 데이터를 직접 가져오지 않고 기존 통계에서 데이터를 가져오므로 혼동될 수 있습니다. 예를 들어, `hive.compute.query.using.stats=true`인 테이블이 있을 때 새 파일을 `LOCATION` 테이블에 업로드하고 테이블에서 `SELECT COUNT(*)` 쿼리를 실행하면 추가된 행이 선택되지 않고 통계에 있는 수치가 반환됩니다.

  차선책으로 `ANALYZE TABLE` 명령을 사용하여 새 통계를 수집하거나 `hive.compute.query.using.stats=false`를 설정합니다. 자세한 내용은 Apache Hive 설명서의 [Statistics in Hive](https://cwiki.apache.org/confluence/display/Hive/StatsDev#StatsDev-StatisticsinHive)를 참조하십시오.
+ **Spark** - Spark를 사용할 때, apppusher 대몬(daemon)과 관련된 파일 핸들러 유출 문제가 있습니다. 이는 몇 시간 또는 며칠 후에 장시간 실행되는 Spark 작업에 나타날 수 있습니다. 이 문제를 해결하려면 프라이머리 노드에 연결하고 `sudo /etc/init.d/apppusher stop`을 입력합니다. 이렇게 하면 apppusher 대몬(daemon)이 중단되며 Amazon EMR이 이를 자동으로 다시 시작합니다.
+ **애플리케이션 이력**
  + 작동 중단 Spark 실행기의 기록 데이터는 사용할 수 없습니다.
  + 진행 중인 암호화를 사용하기 위해 보안 구성을 사용하는 클러스터에서는 애플리케이션 이력을 사용할 수 없습니다.

## 5.8.0 구성 요소 버전
<a name="emr-580-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.4.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.4.0 | 편리한 하둡 에코시스템용 추가 라이브러리. | 
| emr-kinesis | 3.4.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.6.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.18.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.3.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.3.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.3.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.3.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.3.0-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.3.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.3.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-1 | Pig 명령줄 클라이언트. | 
| spark-client | 2.2.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.2.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.2.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.2.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.8.0 구성 분류
<a name="emr-580-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.8.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.7.1
<a name="emr-571-release"></a>

## 5.7.1 애플리케이션 버전
<a name="emr-571-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.7.1 | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.0 | 1.3.0 | 1.2.1 | 1.2.1 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.1 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.11.0-HBase-1.3 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.2 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.7.1 릴리스 정보
<a name="emr-571-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.7.1 구성 요소 버전
<a name="emr-571-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.18.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.7.1 구성 분류
<a name="emr-571-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.7.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.7.0
<a name="emr-570-release"></a>

## 5.7.0 애플리케이션 버전
<a name="emr-570-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.7.0 | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.3.0 | 1.2.1 | 1.2.1 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.1 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.11.0-HBase-1.3 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.1 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.2 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.7.0 릴리스 정보
<a name="emr-570-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.7.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.6.0 릴리스에 관련됩니다.

릴리스 날짜: 2017년 7월 13일

**업그레이드**
+ Flink 1.3.0
+ Phoenix 4.11.0
+ Zeppelin 0.7.2

**새로운 기능**
+ 클러스터를 생성할 때 사용자 지정 Amazon Linux AMI를 지정하는 기능을 추가했습니다. 자세한 내용은 [사용자 지정 AMI 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-custom-ami.html)을 참조하십시오.

**변경 사항, 향상된 기능 및 해결된 문제**
+ **HBase**
  + HBase 읽기 전용 복제본 클러스터를 구성하는 기능을 추가했습니다. [읽기 전용 복제본 클러스터 사용](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html#emr-hbase-s3-read-replica)을 참조하세요.
  + 다양한 버그 수정 사항 및 기능 향상
+ **Presto** - `node.properties` 구성 기능을 추가했습니다.
+ **YARN** - `container-log4j.properties` 구성 기능을 추가했습니다.
+ **Sqoop** - [SQOOP-2880](https://issues.apache.org/jira/browse/SQOOP-2880)을 백포트하여 Sqoop 임시 디렉터리를 설정할 수 있는 인수를 도입했습니다.

## 5.7.0 구성 요소 버전
<a name="emr-570-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.18.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.3.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.11.0-HBase-1.3 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.11.0-HBase-1.3 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.7.0 구성 분류
<a name="emr-570-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.7.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.6.1
<a name="emr-561-release"></a>

## 5.6.1 애플리케이션 버전
<a name="emr-561-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.6.1 | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.13.0 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.1 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.6.1 릴리스 정보
<a name="emr-561-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.6.1 구성 요소 버전
<a name="emr-561-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.17.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.6.1 구성 분류
<a name="emr-561-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.6.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.6.0
<a name="emr-560-release"></a>

## 5.6.0 애플리케이션 버전
<a name="emr-560-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.6.0 | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.1 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.13.0 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.1 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.6.0 릴리스 정보
<a name="emr-560-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.6.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.5.0 릴리스에 관련됩니다.

릴리스 날짜: 2017년 6월 5일

**업그레이드**
+ Flink 1.2.1
+ HBase 1.3.1
+ Mahout 0.13.0. Amazon EMR 버전 5.0 이상에서 Spark 2.x를 지원하는 첫 번째 버전의 Mahout입니다.
+ Spark 2.1.1

**변경 사항, 향상된 기능 및 해결된 문제**
+ **Presto**
  + 보안 구성에서 전송 데이터 암호화를 사용하여 Presto 노드 간 SSL/TLS 보안 통신을 활성화할 수 있는 기능이 추가되었습니다. 자세한 내용은 [전송 중인 데이터 암호화](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption-options.html#emr-encryption-intransit)를 참조하세요.
  + [Presto 7661](https://github.com/prestodb/presto/pull/7661/commits)의 백포트와 함께 `VERBOSE` 옵션이 `EXPLAIN ANALYZE` 문에 추가되면서 쿼리 계획에 대해 더욱 자세한 저레벨 통계를 보고할 수 있게 되었습니다.

## 5.6.0 구성 요소 버전
<a name="emr-560-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.17.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.1 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스. | 
| hbase-region-server | 1.3.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스. | 
| hbase-client | 1.3.1 | HBase 명령줄 클라이언트. | 
| hbase-rest-server | 1.3.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스. | 
| hbase-thrift-server | 1.3.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스. | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.6.0 구성 분류
<a name="emr-560-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.6.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-env | Presto presto-env.sh 파일에서 값을 변경합니다. | 
| presto-node | Presto node.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.5.4
<a name="emr-554-release"></a>

## 5.5.4 애플리케이션 버전
<a name="emr-554-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.5.4 | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.5.4 릴리스 정보
<a name="emr-554-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.5.4 구성 요소 버전
<a name="emr-554-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.16.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.3.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.3.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.3.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.3.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.5.4 구성 분류
<a name="emr-554-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.5.4 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.5.3
<a name="emr-553-release"></a>

## 5.5.3 애플리케이션 버전
<a name="emr-553-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.5.3 | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.12.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.170 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 | 

## 5.5.3 릴리스 정보
<a name="emr-553-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.5.3에 대한 정보가 포함됩니다. 변경 사항은 5.5.2에 관련됩니다.

최초 릴리스 날짜: 2018년 8월 29일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 이 릴리스는 잠재적인 보안 취약점을 해결합니다.

## 5.5.3 구성 요소 버전
<a name="emr-553-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.16.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.3.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.3.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.3.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.3.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.5.3 구성 분류
<a name="emr-553-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.5.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.5.2
<a name="emr-552-release"></a>

## 5.5.2 애플리케이션 버전
<a name="emr-552-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.5.2 | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.12.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.170 | 0.166 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.0 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.9 | 

## 5.5.2 릴리스 정보
<a name="emr-552-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.5.2에 대한 정보가 포함됩니다. 변경 사항은 5.5.1에 관련됩니다.

최초 릴리스 날짜: 2018년 3월 29일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 잠재적인 취약성을 해결하기 위해 Amazon EMR에 대한 기본 Amazon Linux AMI의 Amazon Linux 커널을 업데이트했습니다.

## 5.5.2 구성 요소 버전
<a name="emr-552-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.16.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.3.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.3.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.3.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.3.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.5.2 구성 분류
<a name="emr-552-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.5.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.5.1
<a name="emr-551-release"></a>

## 5.5.1 애플리케이션 버전
<a name="emr-551-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.5.1 | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.2.0 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.3.0 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.12.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.170 | 0.166 | 0.166 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.1 | 0.7.0 | 0.7.0 | 
| ZooKeeper | 3.4.10 | 3.4.10 | 3.4.9 | 3.4.9 | 

## 5.5.1 릴리스 정보
<a name="emr-551-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.5.1에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.5.0 릴리스에 관련됩니다.

최초 릴리스 날짜: 2018년 1월 22일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 추론적 실행과 관련된 취약성을 해결하기 위해 Amazon EMR의 기본 Amazon Linux AMI에서 Amazon Linux 커널을 업데이트했습니다(CVE-2017-5715, CVE-2017-5753, CVE-2017-5754). 자세한 내용은 [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/) 단원을 참조하십시오.

## 5.5.1 구성 요소 버전
<a name="emr-551-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.16.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.3.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.3.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.3.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.3.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.5.1 구성 분류
<a name="emr-551-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.5.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.5.0
<a name="emr-550-release"></a>

## 5.5.0 애플리케이션 버전
<a name="emr-550-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.5.0 | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.2.0 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.3.0 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.12.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.170 | 0.166 | 0.166 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.1 | 0.7.0 | 0.7.0 | 0.6.2 | 
| ZooKeeper | 3.4.10 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.5.0 릴리스 정보
<a name="emr-550-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.5.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.4.0 릴리스에 관련됩니다.

릴리스 날짜: 2017년 4월 26일

**업그레이드**
+ Hue 3.12
+ Presto 0.170
+ Zeppelin 0.7.1
+ ZooKeeper 3.4.10

**변경 사항, 향상된 기능 및 해결된 문제**
+ **Spark**
  + 외부 셔플 서비스를 사용할 수 없을 때 손실된 셔플 블록을 모두 재계산하기 위한 Spark Patch[(SPARK-20115) Fix DAGScheduler](https://issues.apache.org/jira/browse/SPARK-20115)가 이번 릴리스에 포함되어 있는 Spark 2.1.0으로 백포트되었습니다.
+ **Flink**
  + Flink는 이제 Scala 2.11로 빌드됩니다. 따라서 Scala API 및 라이브러리를 사용하는 경우에는 프로젝트에 Scala 2.11을 사용하는 것이 좋습니다.
  + `HADOOP_CONF_DIR` 및 `YARN_CONF_DIR` 기본값이 올바로 설정되지 않아서 `start-scala-shell.sh` 작업이 중단되던 문제가 해결되었습니다. 또한 `env.hadoop.conf.dir` 또는 `env.yarn.conf.dir` 구성 분류에서 `/etc/flink/conf/flink-conf.yaml` 및 `flink-conf`을 사용하여 이 값들을 설정할 수 있는 기능도 추가되었습니다.
  + 새로운 EMR 전용 명령인 `flink-scala-shell`이 `start-scala-shell.sh` 래퍼로 도입되었습니다. 앞으로 `start-scala-shell`이 아닌 이 명령을 사용하는 것이 좋습니다. 새로운 명령은 실행이 간편합니다. 예를 들어 `flink-scala-shell -n 2`는 Flink Scala 셸을 작업 병렬 처리 2로 시작합니다.
  + 새로운 EMR 전용 명령인 `flink-yarn-session`이 `yarn-session.sh` 래퍼로 도입되었습니다. 앞으로 `yarn-session`이 아닌 이 명령을 사용하는 것이 좋습니다. 새로운 명령은 실행이 간편합니다. 예를 들어, `flink-yarn-session -d -n 2`는 연결이 끊어진 상태에서 태스크 관리자 2개를 사용하여 장기 실행 Flink 세션을 시작합니다.
  + [(FLINK-6125) 공통 httpclient가 더 이상 Flink 1.2에서 셰이딩되지 않는 문제](https://issues.apache.org/jira/browse/FLINK-6125)가 해결되었습니다.
+ **Presto**
  + LDAP 인증에 대한 지원이 추가되었습니다. 단, Amazon EMR 기반 Presto에서 LDAP를 사용하려면 Presto 코디네이터의 HTTPS 액세스를 활성화해야 합니다(`config.properties`의 `http-server.https.enabled=true`). 구성에 대한 자세한 내용은 Presto 설명서에서 [LDAP Authentication](https://prestodb.io/docs/current/security/ldap.html)을 참조하세요.
  + `SHOW GRANTS` 지원이 추가되었습니다.
+ **Amazon EMR 기본 Linux AMI**
  + Amazon EMR 릴리스는 이제 Amazon Linux 2017.03을 기반으로 합니다. 자세한 내용은 [Amazon Linux AMI 2017.03 릴리스 정보](https://aws.amazon.com/amazon-linux-ami/2017.03-release-notes/)를 참조하세요.
  + Amazon EMR 기본 Linux 이미지에서 Python 2.6을 제거했습니다. 이제는 Python 2.7 및 3.4가 기본 설치됩니다. 필요하다면 Python 2.6을 수동으로 설치할 수도 있습니다.

## 5.5.0 구성 요소 버전
<a name="emr-550-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.5.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.16.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.3.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.3.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.3.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.3.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.12.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.170 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.170 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.10 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.10 | ZooKeeper 명령줄 클라이언트. | 

## 5.5.0 구성 분류
<a name="emr-550-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.5.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.4.1
<a name="emr-541-release"></a>

## 5.4.1 애플리케이션 버전
<a name="emr-541-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.4.1 | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.2.0 | 1.1.4 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.3.0 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.9.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.166 | 0.166 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.0 | 0.7.0 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.4.1 릴리스 정보
<a name="emr-541-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.4.1 구성 요소 버전
<a name="emr-541-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.15.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.3.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.3.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.3.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.3.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.166 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.166 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 5.4.1 구성 분류
<a name="emr-541-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.4.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.4.0
<a name="emr-540-release"></a>

## 5.4.0 애플리케이션 버전
<a name="emr-540-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.4.0 | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.2.0 | 1.1.4 | 1.1.4 | 1.1.4 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.3.0 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.11.0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 | 
| Phoenix | 4.9.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.166 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.7.0 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.4.0 릴리스 정보
<a name="emr-540-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.4.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.3.0 릴리스에 관련됩니다.

릴리스 날짜: 2017년 3월 8일

**업그레이드**
+ Flink 1.2.0로 업그레이드
+ HBase 1.3.0으로 업그레이드
+ Phoenix 4.9.0로 업그레이드
**참고**  
이전 버전의 Amazon EMR에서 Amazon EMR 버전 5.4.0 이상으로 업그레이드하고 보조 인덱싱을 사용하는 경우 [Apache Phoenix 설명서](https://phoenix.apache.org/secondary_indexing.html#Upgrading_Local_Indexes_created_before_4.8.0)에 설명된 대로 로컬 인덱스를 업그레이드합니다. Amazon EMR은 `hbase-site` 분류에서 필수 구성을 제거하지만 인덱스를 다시 채워야 합니다. 인덱스의 온라인 및 오프라인 업그레이드가 지원됩니다. 온라인 업그레이드는 기본값이므로, 버전 4.8.0 이상인 Phoenix 클라이언트에서 초기화하는 동안 인덱스가 다시 채워집니다. 오프라인 업그레이드를 지정하려면 `phoenix.client.localIndexUpgrade` 분류에서 `phoenix-site` 구성을 false로 설정한 다음, SSH를 프라이머리 노드로 설정하여 `psql [zookeeper] -1`을 실행합니다.
+ Presto 0.166로 업그레이드
+ Zeppelin 0.7.0로 업그레이드

**변경 사항 및 기능 향상**
+ r4 인스턴스에 대한 지원을 추가했습니다. [Amazon EC2 인스턴스 유형](https://aws.amazon.com/ec2/instance-types/)을 참조하세요.

## 5.4.0 구성 요소 버전
<a name="emr-540-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.3.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.15.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.2.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.3.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.3.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.3.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.3.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.3.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-hbase | 2.1.1-amzn-0 | Hive-hbase 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server2 | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.9.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.9.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.166 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.166 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.7.0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 5.4.0 구성 분류
<a name="emr-540-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.4.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.3.2
<a name="emr-532-release"></a>

## 5.3.2 애플리케이션 버전
<a name="emr-532-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.3.2 | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.4 | 1.1.4 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.1.0 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.2 릴리스 정보
<a name="emr-532-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.3.2 구성 요소 버전
<a name="emr-532-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.14.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.4 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 5.3.2 구성 분류
<a name="emr-532-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.3.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.3.1
<a name="emr-531-release"></a>

## 5.3.1 애플리케이션 버전
<a name="emr-531-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.3.1 | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.4 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.3.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.1.0 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.1 릴리스 정보
<a name="emr-531-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.3.1에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.3.0 릴리스에 관련됩니다.

릴리스 날짜: 2017년 2월 7일

Zeppelin 패치를 백포트하고 Amazon EMR의 기본 AMI를 업데이트하는 부수적 변경 내용을 포함합니다.

## 5.3.1 구성 요소 버전
<a name="emr-531-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.14.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.4 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 5.3.1 구성 분류
<a name="emr-531-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.3.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.3.0
<a name="emr-530-release"></a>

## 5.3.0 애플리케이션 버전
<a name="emr-530-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.3.0 | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.4 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 2.1.1-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.11.0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.3.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 2.1.0 | 2.0.2 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 5.3.0 릴리스 정보
<a name="emr-530-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.3.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.2.1 릴리스에 관련됩니다.

릴리스 날짜: 2017년 1월 26일

**업그레이드**
+ Hive 2.1.1으로 업그레이드
+ Hue 3.11.0로 업그레이드
+ Spark 2.1.0로 업그레이드
+ Oozie 4.3.0로 업그레이드
+ Flink 1.1.4로 업그레이드

**변경 사항 및 기능 향상**
+ `interpreters_shown_on_wheel` 파일에 지정된 순서와 상관없이 `hue.ini` 설정을 사용하여 노트북 선택 휠에 첫 번째로 표시할 인터프리터를 구성할 수 있는 Hue 패치를 추가했습니다.
+ Hive의 `hive-parquet-logging` 파일에서 값을 구성하는 데 사용할 수 있는 `parquet-logging.properties` 구성 분류를 추가했습니다.

## 5.3.0 구성 요소 버전
<a name="emr-530-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.14.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.4 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.1-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.1-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.1-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.1-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.1-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.1-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.11.0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.3.0 | Oozie 명령줄 클라이언트. | 
| oozie-server | 4.3.0 | Oozie 워크플로 요청을 수락하는 서비스. | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.1.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.1.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.1.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.1.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 5.3.0 구성 분류
<a name="emr-530-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.3.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-parquet-logging | Hive parquet-logging.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.2.3
<a name="emr-523-release"></a>

## 5.2.3 애플리케이션 버전
<a name="emr-523-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.2.3 | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.2 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 

## 5.2.3 릴리스 정보
<a name="emr-523-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.2.3 구성 요소 버전
<a name="emr-523-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.13.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.3 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 5.2.3 구성 분류
<a name="emr-523-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.2.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.2.2
<a name="emr-522-release"></a>

## 5.2.2 애플리케이션 버전
<a name="emr-522-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.2.2 | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.157.1 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.2 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 

## 5.2.2 릴리스 정보
<a name="emr-522-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.2.2에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.2.1 릴리스에 관련됩니다.

릴리스 날짜: 2017년 5월 2일

**이전 릴리스에서 해결된 알려진 문제**
+ [SPARK-194459](https://issues.apache.org/jira/browse/SPARK-19459)의 백포트와 함께 char/varchar 열이 포함된 ORC 테이블에서 데이터를 읽어오지 못하던 문제가 해결되었습니다.

## 5.2.2 구성 요소 버전
<a name="emr-522-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.13.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.3 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 5.2.2 구성 분류
<a name="emr-522-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.2.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.2.1
<a name="emr-521-release"></a>

## 5.2.1 애플리케이션 버전
<a name="emr-521-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.2.1 | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 | 1.1.3 | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.3 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.157.1 | 0.152.3 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.2 | 2.0.1 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.2 | 
| ZooKeeper | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.2.1 릴리스 정보
<a name="emr-521-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.2.1에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.2.0 릴리스에 관련됩니다.

릴리스 날짜: 2016년 12월 29일

**업그레이드**
+ Presto 0.157.1로 업그레이드되었습니다. 자세한 내용은 Presto 설명서의 [Presto 릴리스 정보](https://prestodb.io/docs/current/release/release-0.157.1.html)를 참조하십시오.
+ Zookeeper 3.4.9로 업그레이드되었습니다. 자세한 내용은 Apache ZooKeeper 설명서의 [ZooKeeper 릴리스 정보](https://zookeeper.apache.org/doc/r3.4.9/releasenotes.html)를 참조하십시오.

**변경 사항 및 기능 향상**
+ Amazon EMR 버전 4.8.3 이상(5.0.0, 5.0.3 및 5.2.0 제외)에서 Amazon EC2 m4.16xlarge 인스턴스 유형에 대한 지원을 추가했습니다.
+ Amazon EMR 릴리스는 이제 Amazon Linux 2016.09를 기반으로 합니다. 자세한 내용은 [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/) 단원을 참조하십시오.
+ 이제 Flink 및 YARN 구성 경로가 `/etc/default/flink`에서 기본적으로 설정되므로 `FLINK_CONF_DIR` 또는 `HADOOP_CONF_DIR` 드라이버 스크립트를 실행하여 Flink 작업을 시작할 때 환경 변수 `flink` 및 `yarn-session.sh`을 설정할 필요가 없습니다.
+ FlinkKinesisConsumer 클래스에 대한 지원을 추가했습니다.

**이전 릴리스에서 해결된 알려진 문제**
+ 대규모 클러스터에서 동일한 파일의 복제 및 삭제 간 경합 때문에 ReplicationMonitor 스레드가 장시간 정체될 수 있는 하둡 문제를 수정했습니다.
+ 작업 상태가 성공적으로 업데이트되지 않은 경우 ControlledJob\$1toString이 null 포인터 예외(NPE)와 함께 실패하는 문제를 수정했습니다.

## 5.2.1 구성 요소 버전
<a name="emr-521-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.13.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.3 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 5.2.1 구성 분류
<a name="emr-521-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.2.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.2.0
<a name="emr-520-release"></a>

## 5.2.0 애플리케이션 버전
<a name="emr-520-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.2.0 | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 | 1.1.3 |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.3 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.152.3 | 0.152.3 | 
| Spark | 2.0.2 | 2.0.1 | 2.0.1 | 2.0.1 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.2 | 0.6.1 | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.2.0 릴리스 정보
<a name="emr-520-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.2.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.1.0 릴리스에 관련됩니다.

릴리스 날짜: 2016년 11월 21일

**변경 사항 및 기능 향상**
+ HBase에 대한 Amazon S3 스토리지 모드를 추가했습니다.
+  HBase rootdir의 Amazon S3 위치를 지정할 수 있습니다. 자세한 내용은 [Amazon S3용 HBase](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hbase-s3.html)를 참조하세요.

**업그레이드**
+ Spark 2.0.2로 업그레이드

**이전 릴리스에서 해결된 알려진 문제**
+ EBS 전용 인스턴스 유형에서 /mnt가 2TB로 제약되는 문제를 수정했습니다.
+ instance-controller 및 logpusher 로그가 매시간 회전하는 정상적인 log4j-configured .log 파일 대신 해당 .out 파일로 출력되는 문제를 수정했습니다. .out 파일은 회전하지 않으므로 결국 /emr 파티션이 파일로 가득 찰 수 있습니다. 이 문제는 하드웨어 가상 머신(HVM) 인스턴스 유형에만 영향을 미칩니다.

## 5.2.0 구성 요소 버전
<a name="emr-520-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.12.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.3 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.152.3 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.152.3 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 5.2.0 구성 분류
<a name="emr-520-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.2.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.1.1
<a name="emr-511-release"></a>

## 5.1.1 애플리케이션 버전
<a name="emr-511-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.1.1 | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 | 1.1.3 |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.3 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.152.3 | 0.150 | 
| Spark | 2.0.1 | 2.0.1 | 2.0.1 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.1.1 릴리스 정보
<a name="emr-511-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 5.1.1 구성 요소 버전
<a name="emr-511-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.11.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.3 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.152.3 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.152.3 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 5.1.1 구성 분류
<a name="emr-511-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.1.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.1.0
<a name="emr-510-release"></a>

## 5.1.0 애플리케이션 버전
<a name="emr-510-app-versions"></a>

이 릴리스에서 지원되는 애플리케이션은 [https://flink.apache.org/](https://flink.apache.org/), [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.1.0 | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink | 1.1.3 |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.3 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.152.3 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.1 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.2 | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.1.0 릴리스 정보
<a name="emr-510-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.1.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.0.3 릴리스에 관련됩니다.

릴리스 날짜: 2016년 11월 3일

**변경 사항 및 기능 향상**
+ Flink 1.1.3에 대한 지원을 추가했습니다.
+ Presto는 Hue의 노트북 섹션에서 옵션으로 추가되었습니다.

**업그레이드**
+ HBase 1.2.3로 업그레이드
+ Zeppelin 0.6.2로 업그레이드

**이전 릴리스에서 해결된 알려진 문제**
+ ORC 파일이 이전 Amazon EMR 4.x 버전만큼 좋은 성능을 나타내지 않는 Amazon S3의 Tez 쿼리 문제를 수정했습니다.

## 5.1.0 구성 요소 버전
<a name="emr-510-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.11.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| flink-client | 1.1.3 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.3 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.3 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.3 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.3 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.3 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.152.3 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.152.3 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.2 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 5.1.0 구성 분류
<a name="emr-510-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.1.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| flink-conf | flink-conf.yaml 설정을 변경합니다. | 
| flink-log4j | Flink log4j.properties 설정을 변경합니다. | 
| flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. | 
| flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.0.3
<a name="emr-503-release"></a>

## 5.0.3 애플리케이션 버전
<a name="emr-503-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.3 릴리스 정보
<a name="emr-503-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 5.0.3에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 5.0.0 릴리스에 관련됩니다.

릴리스 날짜: 2016년 10월 24일

**업그레이드**
+ Hadoop 2.7.3로 업그레이드
+ Presto 0.152.3로 업그레이드했습니다. 여기에는 Presto 웹 인터페이스에 대한 지원이 포함됩니다. 포트 8889를 사용하여 Presto 코디네이터의 Presto 웹 인터페이스에 액세스할 수 있습니다. Presto 웹 인터페이스에 대한 자세한 내용은 Presto 설명서의 [웹 인터페이스](https://prestodb.io/docs/current/admin/web-interface.html)를 참조하십시오.
+ Spark 2.0.1으로 업그레이드
+ Amazon EMR 릴리스는 이제 Amazon Linux 2016.09를 기반으로 합니다. 자세한 내용은 [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/) 단원을 참조하십시오.

## 5.0.3 구성 요소 버전
<a name="emr-503-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.10.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.152.3 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.152.3 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 5.0.3 구성 분류
<a name="emr-503-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.0.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.0.2
<a name="emr-502-release"></a>

## 5.0.2 애플리케이션 버전
<a name="emr-502-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.2 릴리스 정보
<a name="emr-502-relnotes"></a>

## 5.0.2 구성 요소 버전
<a name="emr-502-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.9.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.150 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.150 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1-SNAPSHOT | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 5.0.2 구성 분류
<a name="emr-502-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.0.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.0.1
<a name="emr-501-release"></a>

## 5.0.1 애플리케이션 버전
<a name="emr-501-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.1 릴리스 정보
<a name="emr-501-relnotes"></a>

## 5.0.1 구성 요소 버전
<a name="emr-501-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.9.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.150 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.150 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1-SNAPSHOT | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 5.0.1 구성 분류
<a name="emr-501-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.0.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 5.0.0
<a name="emr-500-release"></a>

## 5.0.0 애플리케이션 버전
<a name="emr-500-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-5.0.3 | emr-5.0.2 | emr-5.0.1 | emr-5.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 2.11.8 | 2.11.8 | 2.11.8 | 2.11.8 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 2.1.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 3.10.0-amzn-0 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 0.16.0-amzn-0 | 
| Presto | 0.152.3 | 0.150 | 0.150 | 0.150 | 
| Spark | 2.0.1 | 2.0.0 | 2.0.0 | 2.0.0 | 
| Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin | 0.6.1 | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 0.6.1-SNAPSHOT | 
| ZooKeeper | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 5.0.0 릴리스 정보
<a name="emr-500-relnotes"></a>

 릴리스 날짜: 2016년 7월 27일

**업그레이드**
+ Hive 2.1으로 업그레이드
+ Presto 0.150로 업그레이드
+ Spark 2.0로 업그레이드
+ Hue 3.10.0로 업그레이드
+ Pig 0.16.0로 업그레이드
+ Tez 0.8.4로 업그레이드
+ Zeppelin 0.6.1으로 업그레이드

**변경 사항 및 기능 향상**
+ Amazon EMR은 최신 오픈 소스 버전의 Hive(버전 2.1)와 Pig(버전 0.16.0)를 지원합니다. 이전에 Amazon EMR에서 Hive나 Pig를 사용한 적이 있는 경우 일부 사용 사례에 영향을 미칠 수 있습니다. 자세한 내용은 [Hive](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-hive.html) 및 [Pig](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-pig.html)를 참조하십시오.
+ Hive 및 Pig용 기본 실행 엔진은 이제 Tez입니다. 이 항목을 변경하려면 각각 `hive-site` 및 `pig-properties` 구성 분류에서 해당 값을 편집합니다.
+ 향상된 단계 디버깅 기능이 추가되었습니다. 서비스에서 원인을 결정할 수 있는 경우 이 기능을 사용하여 단계 실패의 근본 원인을 확인할 수 있습니다. 자세한 내용은 Amazon EMR 관리 안내서에서 [향상된 단계 디버깅](https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-enhanced-step-debugging.html)을 참조하세요.
+ 이전에 "-Sandbox"로 끝났던 애플리케이션은 더 이상 해당 접미사를 사용하지 않습니다. 이로 인해 예를 들어 스크립트를 사용하여 이 애플리케이션이 있는 클러스터를 시작하는 경우 자동화가 중단될 수 있습니다. 다음 테이블에서는 Amazon EMR 5.0.0 대비 Amazon EMR 4.7.2의 애플리케이션 이름을 보여줍니다.  
**애플리케이션 이름 변경**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-500-release.html)
+ Spark는 이제 Scala 2.11용으로 컴파일됩니다.
+ 이제 기본 JVM은 Java 8입니다. 모든 애플리케이션은 Java 8 실행 시간을 사용하여 실행됩니다. 애플리케이션의 바이트 코드 대상에는 변경 사항이 없습니다. 대부분의 애플리케이션은 계속해서 Java 7을 대상으로 합니다.
+ Zeppelin에는 이제 인증 기능이 포함됩니다. 자세한 내용은 [Zeppelin](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-zeppelin.html)을 참조하십시오.
+ 암호화 옵션을 더 쉽게 생성하고 적용할 수 있도록 보안 구성에 대한 지원을 추가했습니다. 자세한 내용은 [데이터 암호화](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption.html)를 참조하십시오.

## 5.0.0 구성 요소 버전
<a name="emr-500-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.9.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 2.1.0-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 2.1.0-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 2.1.0-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 2.1.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 2.1.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 2.1.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.10.0-amzn-0 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.150 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.150 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.16.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 2.0.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 2.0.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 2.0.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 2.0.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1-SNAPSHOT | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 5.0.0 구성 분류
<a name="emr-500-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-5.0.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-log4j2 | Hive hive-log4j2.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-hive-site | Spark hive-site.xml 파일에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 4.x 릴리스 버전
<a name="emr-release-4x"></a>

이 섹션에는 각 Amazon EMR 4.x 릴리스 버전에 제공되는 애플리케이션 버전, 릴리스 정보, 구성 요소 버전 및 구성 분류가 포함되어 있습니다.

클러스터를 시작할 때 Amazon EMR의 여러 릴리스 중에서 선택할 수 있습니다. 이를 통해 호환성 요구 사항에 맞는 애플리케이션 버전을 테스트하고 사용할 수 있습니다. *릴리스 레이블*과 함께 릴리스 번호를 지정합니다. 릴리스 레이블은 `emr-x.x.x` 형식입니다. 예를 들어 `emr-7.12.0`입니다.

새 Amazon EMR 릴리스는 최초 릴리스 날짜에 첫 번째 리전부터 시작하여 일정 기간에 걸쳐 여러 리전에 사용 가능해집니다. 이 기간에는 사용자 리전에서 최신 릴리스 버전이 제공되지 않을 수도 있습니다.

모든 Amazon EMR 4.x 릴리스에서 애플리케이션 버전의 전체 테이블은 [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md) 섹션을 참조하세요.

**Topics**
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)
+ [Amazon EMR 4.x 릴리스 버전의 차이](emr-release-differences-4x.md)
+ [Amazon EMR 릴리스 4.9.6](emr-496-release.md)
+ [Amazon EMR 릴리스 4.9.5](emr-495-release.md)
+ [Amazon EMR 릴리스 4.9.4](emr-494-release.md)
+ [Amazon EMR 릴리스 4.9.3](emr-493-release.md)
+ [Amazon EMR 릴리스 4.9.2](emr-492-release.md)
+ [Amazon EMR 릴리스 4.9.1](emr-491-release.md)
+ [Amazon EMR 릴리스 4.8.5](emr-485-release.md)
+ [Amazon EMR 릴리스 4.8.4](emr-484-release.md)
+ [Amazon EMR 릴리스 4.8.3](emr-483-release.md)
+ [Amazon EMR 릴리스 4.8.2](emr-482-release.md)
+ [Amazon EMR 릴리스 4.8.1](emr-481-release.md)
+ [Amazon EMR 릴리스 4.8.0](emr-480-release.md)
+ [Amazon EMR 릴리스 4.7.4](emr-474-release.md)
+ [Amazon EMR 릴리스 4.7.3](emr-473-release.md)
+ [Amazon EMR 릴리스 4.7.2](emr-472-release.md)
+ [Amazon EMR 릴리스 4.7.1](emr-471-release.md)
+ [Amazon EMR 릴리스 4.7.0](emr-470-release.md)
+ [Amazon EMR 릴리스 4.6.1](emr-461-release.md)
+ [Amazon EMR 릴리스 4.6.0](emr-460-release.md)
+ [Amazon EMR 릴리스 4.5.0](emr-450-release.md)
+ [Amazon EMR 릴리스 4.4.0](emr-440-release.md)
+ [Amazon EMR 릴리스 4.3.0](emr-430-release.md)
+ [Amazon EMR 릴리스 4.2.0](emr-420-release.md)
+ [Amazon EMR 릴리스 4.1.0](emr-410-release.md)
+ [Amazon EMR 릴리스 4.0.0](emr-400-release.md)

# Amazon EMR 4.x 릴리스의 애플리케이션 버전
<a name="emr-release-app-versions-4.x"></a>

다음 테이블에는 각 Amazon EMR 4.x 릴리스에서 사용할 수 있는 애플리케이션 버전이 나와 있습니다.


**애플리케이션 버전 정보**  

|  | emr-4.9.6 | emr-4.9.5 | emr-4.9.4 | emr-4.9.3 | emr-4.9.2 | emr-4.9.1 | emr-4.8.5 | emr-4.8.4 | emr-4.8.3 | emr-4.8.2 | emr-4.8.1 | emr-4.8.0 | emr-4.7.4 | emr-4.7.3 | emr-4.7.2 | emr-4.7.1 | emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | emr-4.4.0 | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.27 | 1.10.27 | 1.10.27 | 1.10.27 | 1.10.27 | 1.10.27 | 추적되지 않음 | 추적되지 않음 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 |  -  |  -  |  -  |  -  |  -  |  -  | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.2-amzn-4 | 2.7.2-amzn-4 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-2 | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 2.7.1-amzn-1 | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.0 | 0.12.0 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 0.151 | 0.151 | 0.148 | 0.148 | 0.148 | 0.147 | 0.147 | 0.143 | 0.143 | 0.140 | 0.136 | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.3 | 0.8.3 | 0.8.3 | 0.8.3 | 0.8.3 |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 |  -  |  -  |  -  |  -  |  -  |  -  | 

# Amazon EMR 4.x 릴리스 버전의 차이
<a name="emr-release-differences-4x"></a>

*Amazon EMR 관리 안내서*의 Amazon EMR 기능 설명서에는 기능을 처음 제공한 Amazon EMR 릴리스 버전과 4.0.0까지 Amazon EMR 기능 간 해당되는 차이점이 나와 있습니다.

Amazon EMR 릴리스 버전 5.0.0부터 일부 애플리케이션에 설치 또는 작동 세부 정보를 변경하는 중대한 버전 업그레이드가 있었으며 샌드박스 애플리케이션에서 네이티브 애플리케이션으로 승격된 애플리케이션도 있습니다. 이 섹션의 각 주제에서는 Amazon EMR 4.x 릴리스 버전을 사용할 때 나타나는 주요 애플리케이션별 차이를 설명합니다.

**Topics**
+ [샌드박스 애플리케이션](emr-sandbox-apps-4x.md)
+ [Amazon EMR 4.x에서 Hive 사용 시 고려 사항](emr-Hive-4x.md)
+ [Amazon EMR 4.x에서 Pig 사용 시 고려 사항](emr-Pig-4x.md)

# 샌드박스 애플리케이션
<a name="emr-sandbox-apps-4x"></a>

Amazon EMR 4.x 릴리스 버전을 사용할 때 일부 애플리케이션은 *샌드박스* 애플리케이션으로 간주됩니다. 샌드박스 애플리케이션은 필요에 의해 처음 Amazon EMR 출시 당시 제공된 애플리케이션의 초기 버전입니다. 콘솔 AWS CLI또는 API를 사용하여 Amazon EMR이 네이티브 애플리케이션과 동일한 방식으로 샌드박스 애플리케이션을 설치하도록 할 수 있지만 샌드박스 애플리케이션은 지원 및 설명서가 제한적입니다. Amazon EMR 릴리스 버전 5.0.0 이상에서 샌드박스 애플리케이션은 완벽하게 지원되는 네이티브 애플리케이션이 되었습니다. 다음은 Amazon EMR 4.x 릴리스 버전의 샌드박스 애플리케이션입니다.
+ Oozie
+ Presto
+ Sqoop
+ Zeppelin
+ ZooKeeper

샌드박스 애플리케이션을 설치할 때 애플리케이션 이름에 접미사 `-sandbox`가 붙습니다. 예를 들어, *Presto*의 샌드박스 버전을 설치하려면 `Presto-sandbox`를 사용하세요. 완벽하게 지원되는 애플리케이션에 비해 설치 시간이 오래 걸릴 수 있습니다. 이 섹션에 나오는 각 애플리케이션의 버전 번호는 애플리케이션의 커뮤니티 버전에 해당합니다.

## Oozie(샌드박스 버전)
<a name="emr-Oozie-sandbox-4x"></a>

Amazon EMR 릴리스 버전 4.1.0부터 Oozie가 샌드박스 애플리케이션으로 제공됩니다.

샌드박스 버전을 사용하면 Oozie 예제가 기본적으로 설치되지 않습니다. 예제를 설치하려면 마스터 노드에 SSH하고 `install-oozie-examples`를 실행합니다.


**Oozie-Sandbox 버전 정보**  

| Amazon EMR 릴리스 레이블 | Oozie-Sandbox 버전 | Oozie-Sandbox와 함께 설치된 구성 요소 | 
| --- | --- | --- | 
| emr-4.9.6 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.5 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.4 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.3 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.2 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.9.1 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.5 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.4 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.3 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.2 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.1 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.8.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.4 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.3 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.2 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.1 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.7.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.6.1 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.6.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.5.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.4.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.3.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.2.0 | 4.2.0 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 
| emr-4.1.0 | 4.0.1 | emrfs, emr-ddb, emr-goodies, emr-kinesis, emr-s3-dist-cp, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, oozie-client, oozie-server | 

## Presto(샌드박스 버전)
<a name="emr-Presto-sandbox-4x"></a>

Amazon EMR 릴리스 버전 4.1.0부터 Presto가 샌드박스 애플리케이션으로 제공됩니다.


**Presto-Sandbox 버전 정보**  

| Amazon EMR 릴리스 레이블 | Presto-Sandbox 버전 | Presto-Sandbox와 함께 설치된 구성 요소 | 
| --- | --- | --- | 
| emr-4.9.6 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.5 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.4 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.3 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.2 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.9.1 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.5 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.4 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.3 | 0.157.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.2 | 0.152.3 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.1 | 0.151 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.8.0 | 0.151 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.4 | 0.148 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.3 | 0.148 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.2 | 0.148 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.1 | 0.147 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.7.0 | 0.147 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hcatalog-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.6.1 | 0.143 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.6.0 | 0.143 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.5.0 | 0.140 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.4.0 | 0.136 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.3.0 | 0.130 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.2.0 | 0.125 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 
| emr-4.1.0 | 0.119 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, hive-client, hive-metastore-server, mysql-server, presto-coordinator, presto-worker | 

## Sqoop(샌드박스 버전)
<a name="emr-Sqoop-sandbox-4x"></a>

Amazon EMR 릴리스 버전 4.4.0부터 Sqoop이 샌드박스 애플리케이션으로 제공됩니다.


**Sqoop-Sandbox 버전 정보**  

| Amazon EMR 릴리스 레이블 | Sqoop-Sandbox 버전 | Sqoop-Sandbox와 함께 설치된 구성 요소 | 
| --- | --- | --- | 
| emr-4.9.6 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.5 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.4 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.3 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.2 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.9.1 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.5 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.4 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.3 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.2 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.1 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.8.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.4 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.3 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.2 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.1 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.7.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.6.1 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.6.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, mysql-server, sqoop-client | 
| emr-4.5.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, sqoop-client | 
| emr-4.4.0 | 1.4.6 | emrfs, emr-ddb, emr-goodies, hadoop-client, hadoop-mapred, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, sqoop-client | 

## Zeppelin(샌드박스 버전)
<a name="emr-Zeppelin-sandbox-4x"></a>

Amazon EMR 릴리스 버전 4.1.0부터 Zeppelin이 샌드박스 애플리케이션으로 제공됩니다.


**Zeppelin-Sandbox 버전 정보**  

| Amazon EMR 릴리스 레이블 | Zeppelin-Sandbox 버전 | Zeppelin-Sandbox와 함께 설치된 구성 요소 | 
| --- | --- | --- | 
| emr-4.9.6 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.5 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.4 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.3 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.2 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.9.1 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.5 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.4 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.3 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.2 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.1 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.8.0 | 0.6.1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.4 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.3 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.2 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.1 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.7.0 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.6.1 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.6.0 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.5.0 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.4.0 | 0.5.6-incubating | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.3.0 | 0.5.5-incubating-amzn-1 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.2.0 | 0.5.5-incubating-amzn-0 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 
| emr-4.1.0 | 0.6.0-incubating-SNAPSHOT | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, spark-client, spark-history-server, spark-on-yarn, spark-yarn-slave, zeppelin-server | 

## Zookeeper(샌드박스 버전)
<a name="emr-Zookeeper-sandbox-4x"></a>

Amazon EMR 릴리스 버전 4.6.0부터 Zookeeper가 샌드박스 애플리케이션으로 제공됩니다.


**ZooKeeper-Sandbox 버전 정보**  

| Amazon EMR 릴리스 레이블 | ZooKeeper-Sandbox 버전 | ZooKeeper-Sandbox와 함께 설치된 구성 요소 | 
| --- | --- | --- | 
| emr-4.9.6 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.5 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.4 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.3 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.2 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.9.1 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.5 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.4 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.3 | 3.4.9 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.2 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.1 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.8.0 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.4 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.3 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.2 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.1 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.7.0 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-kms-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.6.1 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 
| emr-4.6.0 | 3.4.8 | emrfs, emr-goodies, hadoop-client, hadoop-hdfs-datanode, hadoop-hdfs-library, hadoop-hdfs-namenode, hadoop-httpfs-server, hadoop-yarn-nodemanager, hadoop-yarn-resourcemanager, zookeeper-client, zookeeper-server | 

# Amazon EMR 4.x에서 Hive 사용 시 고려 사항
<a name="emr-Hive-4x"></a>

이 섹션에서는 Amazon EMR 5.x 릴리스 버전에서 Hive 2.x를 사용하는 것에 비해 Amazon EMR 4.x 릴리스 버전에서 Hive 버전 1.0.0을 사용할 때 고려할 차이점을 설명합니다.

## ACID 트랜잭션 지원되지 않음
<a name="emr-Hive-acid-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Hive는 4.x 릴리스 버전을 사용할 때 Hive 데이터가 Amazon S3에 저장되어 ACID 트랜잭션이 지원되지 않습니다. Amazon S3에서 트랜잭션 테이블을 생성하려고 하면 예외가 발생합니다.

## Amazon S3에서 테이블에 대한 읽기 및 쓰기
<a name="emr-Hive-s3table-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Hive는 임시 파일을 사용하지 않고 Amazon S3에 직접 쓸 수 있습니다. 이 기능으로 인해 성능이 향상되지만 같은 Hive 문에서 Amazon S3 내 동일한 테이블에 대한 읽기 및 쓰기 작업을 수행할 수 없습니다. HDFS에서 임시 테이블을 생성하여 사용하는 차선책이 있습니다.

다음 예제는 여러 Hive 문을 사용하여 Amazon S3에서 테이블을 업데이트하는 방법을 보여 줍니다. 이 명령문에서는 Amazon S3에 있는 `my_s3_table`이라는 테이블을 기반으로 HDFS에 `tmp`라는 임시 테이블을 생성합니다. 그러면 Amazon S3의 테이블이 임시 테이블 콘텐츠로 업데이트됩니다.

```
CREATE TEMPORARY TABLE tmp LIKE my_s3_table;
INSERT OVERWRITE TABLE tmp SELECT ....;
INSERT OVERWRITE TABLE my_s3_table SELECT * FROM tmp;
```

## Log4j 및 Log4j 2 비교
<a name="emr-Hive-log4j-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Hive에 Log4j가 사용됩니다. 버전 5.0.0부터는 Log4j 2가 기본값입니다. 이 버전에서는 다른 로깅 구성이 필요할 수 있습니다. 자세한 내용은 [Apache Log4j 2](http://logging.apache.org/log4j/2.x/)를 참조하세요.

## MapReduce가 기본 실행 엔진임
<a name="emr-Hive-tez-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Hive에서는 MapReduce를 기본 실행 엔진으로 사용합니다. Amazon EMR 버전 5.0.0부터는 대다수 워크플로에서 성능을 개선하는 Tez가 기본 실행 엔진입니다.

## Hive 권한 부여
<a name="emr-Hive-authz-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Hive는 HDFS에 대해 [Hive 권한 부여](https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Authorization)를 지원하지만 EMRFS 및 Amazon S3에서는 지원하지 않습니다. Amazon EMR 클러스터는 기본적으로 권한 부여가 비활성화된 상태로 실행됩니다.

## Amazon S3와 Hive 파일 병합 동작
<a name="emr-Hive-filemerge-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Hive는 `hive.merge.mapfiles`가 `true`일 경우 맵 전용 작업 끝에서 작은 파일을 병합합니다. 작업의 평균 출력 크기가 `hive.merge.smallfiles.avgsize` 설정보다 작아야 병합이 트리거됩니다. Amazon EMR Hive는 최종 출력 경로가 HDFS에 있는 경우 정확히 동일한 동작을 수행합니다. 하지만 출력 경로가 Amazon S3에 있으면 `hive.merge.smallfiles.avgsize` 파라미터가 무시됩니다. 이 상황에서 `hive.merge.mapfiles`가 `true`로 설정된 경우 병합 작업이 항상 트리거됩니다.

# Amazon EMR 4.x에서 Pig 사용 시 고려 사항
<a name="emr-Pig-4x"></a>

Amazon EMR 4.x 릴리스 버전을 사용하여 만든 클러스터에 Pig 버전 0.14.0이 설치됩니다. Pig는 Amazon EMR 5.0.0에서 버전 0.16.0으로 업그레이드되었습니다. 아래에 중대한 차이가 설명되어 있습니다.

## 다양한 기본 실행 엔진
<a name="emr-Pig-engine-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Pig 버전 0.14.0에서는 MapReduce를 기본 실행 엔진으로 사용합니다. Pig 0.16.0 이상에는 Apache Tez가 사용됩니다. `exectype=mapreduce` 구성 분류에 `pig-properties`를 명시적으로 설정하여 MapReduce를 사용할 수 있습니다.

## 삭제된 Pig 사용자 정의 함수(UDF)
<a name="emr-Pig-udf-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Pig에 제공된 사용자 지정 UDF가 Pig 0.16.0부터 삭제되었습니다. 대부분의 UDF에는 대신 사용할 수 있는 함수가 있습니다. 다음 표에는 삭제된 UDF와 해당 함수가 있습니다. 자세한 내용은 Apache Pig 사이트에서 [Built-in functions](https://pig.apache.org/docs/r0.16.0/func.html)를 참조하세요.


| 삭제된 UDF | 동등한 함수 | 
| --- | --- | 
|  FORMAT\$1DT(dtformat, 날짜)  |  GetHour(날짜), GetMinute(날짜), GetMonth(날짜), GetSecond(날짜), GetWeek(날짜), GetYear(날짜), GetDay(날짜)  | 
|  EXTRACT(문자열, 패턴)  |  REGEX\$1EXTRACT\$1ALL(문자열, 패턴)  | 
|  REPLACE(문자열, 패턴, 대체)  |  REPLACE(문자열, 패턴, 대체)  | 
|  DATE\$1TIME()  |  ToDate()  | 
|  DURATION(dt, dt2)  |  WeeksBetween(dt, dt2), YearsBetween(dt, dt2), SecondsBetween(dt, dt2), MonthsBetween(dt, dt2), MinutesBetween(dt, dt2), HoursBetween(dt, dt2)  | 
|  EXTRACT\$1DT(형식, 날짜)  |  GetHour(날짜), GetMinute(날짜), GetMonth(날짜), GetSecond(날짜), GetWeek(날짜), GetYear(날짜), GetDay(날짜)  | 
|  OFFSET\$1DT(날짜, 기간)  |  AddDuration(날짜, 기간), SubtractDuration(날짜, 기간)  | 
|  PERIOD(dt, dt2)  |  WeeksBetween(dt, dt2), YearsBetween(dt, dt2), SecondsBetween(dt, dt2), MonthsBetween(dt, dt2), MinutesBetween(dt, dt2), HoursBetween(dt, dt2)  | 
|  CAPITALIZE(문자열)  |  UCFIRST(문자열)  | 
|  CONCAT\$1WITH()  |  CONCAT()  | 
|  INDEX\$1OF()  |  INDEXOF()  | 
|  LAST\$1INDEX\$1OF()  |  LAST\$1INDEXOF()  | 
|  SPLIT\$1ON\$1REGEX()  |  STRSPLT()  | 
|  UNCAPITALIZE()  |  LCFIRST()  | 

동일한 사항 없는 FORMAT(), LOCAL\$1DATE(), LOCAL\$1TIME(), CENTER(), LEFT\$1PAD(), REPEAT(), REPLACE\$1ONCE(), RIGHT\$1PAD(), STRIP(), STRIP\$1END(), STRIP\$1START(), SWAP\$1CASE()와 같은 UDF는 삭제되었습니다.

## 사용 중지된 Grunt 명령 사용
<a name="emr-pig-gruntcmd-4x"></a>

Pig 0.16.0부터 일부 Grunt 명령이 중단됩니다. 다음 표에는 Pig 0.14.0의 Grunt 명령과 최신 버전의 동일한 명령(해당되는 경우)이 나와 있습니다.


**Pig 0.14.0 명령 및 이와 동등한 최신 Grunt 명령**  

| Pig 0.14.0 Grunt 명령 | 0.16.0 이상의 Pig Grunt 명령 | 
| --- | --- | 
|  cat <non-hdfs-path>)  |  fs -cat <non-hdfs-path>;  | 
| cd <non-hdfs-path>; |  동일한 사항 없음  | 
| ls <non-hdfs-path>; | fs -ls <non-hdfs-path>; | 
|  move <non-hdfs-path> <non-hdfs-path>;  |  fs -mv <non-hdfs-path> <non-hdfs-path>;  | 
| copy <non-hdfs-path> <non-hdfs-path>; |  fs -cp <non-hdfs-path> <non-hdfs-path>;  | 
| copyToLocal <non-hdfs-path> <local-path>; |  fs -copyToLocal <non-hdfs-path> <local-path>;  | 
| copyFromLocal <local-path> <non-hdfs-path>; |  fs -copyFromLocal <local-path> <non-hdfs-path>;  | 
| mkdir <non-hdfs-path>; |  fs -mkdir <non-hdfs-path>;  | 
| rm <non-hdfs-path>; |  fs -rm -r -skipTrash <non-hdfs-path>;  | 
|  rmf <non-hdfs-path>;  |  fs -rm -r -skipTrash <non-hdfs-path>;  | 

## 비HDFS 홈 디렉터리에서 제거된 기능
<a name="emr-Pig-users-4x"></a>

Amazon EMR 4.x 릴리스 버전의 Pig 0.14.0에서는 두 가지 메커니즘을 통해 홈 디렉터리가 없는 `hadoop` 사용자 이외의 사용자가 Pig 스크립트를 실행할 수 있습니다. 첫 번째 방법은 홈 디렉터리가 존재하지 않는 경우 초기 작업 디렉터리를 루트 디렉터리로 설정하는 자동 폴백이고, 둘째 방법은 초기 작업 디렉터리를 변경할 수 있는 `pig.initial.fs.name` 속성입니다.

Amazon EMR 버전 5.0.0부터는 이 두 가지 방법을 사용할 수 없으며 사용자는 HDFS에 홈 디렉터리가 있어야 합니다. `hadoop` 사용자에게는 시작 시 홈 디렉터리가 할당되기 때문에 적용되지 않습니다. `command-runner.jar`를 사용하여 다른 사용자가 명시적으로 지정되지 않는 한, Hadoop jar 단계를 사용하여 스크립트를 실행하면 기본적으로 Hadoop 사용자로 지정됩니다.

# Amazon EMR 릴리스 4.9.6
<a name="emr-496-release"></a>

## 4.9.6 애플리케이션 버전
<a name="emr-496-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.9.6 | emr-4.9.5 | emr-4.9.4 | emr-4.9.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 4.9.6 릴리스 정보
<a name="emr-496-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 4.9.6 구성 요소 버전
<a name="emr-496-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.17.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-9 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-9 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-9 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-9 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-9 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.9.6 구성 분류
<a name="emr-496-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.9.6 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.9.5
<a name="emr-495-release"></a>

## 4.9.5 애플리케이션 버전
<a name="emr-495-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.9.5 | emr-4.9.4 | emr-4.9.3 | emr-4.9.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 4.9.5 릴리스 정보
<a name="emr-495-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.9.5에 대한 정보가 포함됩니다. 변경 사항은 4.9.4에 관련됩니다.

최초 릴리스 날짜: 2018년 8월 29일

**변경 사항, 향상된 기능 및 해결된 문제**
+ HBase
  + 이 릴리스는 잠재적인 보안 취약점을 해결합니다.

## 4.9.5 구성 요소 버전
<a name="emr-495-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.17.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-9 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-9 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-9 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-9 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-9 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.9.5 구성 분류
<a name="emr-495-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.9.5 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.9.4
<a name="emr-494-release"></a>

## 4.9.4 애플리케이션 버전
<a name="emr-494-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.9.4 | emr-4.9.3 | emr-4.9.2 | emr-4.9.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 4.9.4 릴리스 정보
<a name="emr-494-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.9.4에 대한 정보가 포함됩니다. 변경 사항은 4.9.3에 관련됩니다.

최초 릴리스 날짜: 2018년 3월 29일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 잠재적인 취약성을 해결하기 위해 Amazon EMR에 대한 기본 Amazon Linux AMI의 Amazon Linux 커널을 업데이트했습니다.

## 4.9.4 구성 요소 버전
<a name="emr-494-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.17.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-9 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-9 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-9 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-9 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-9 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.9.4 구성 분류
<a name="emr-494-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.9.4 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.9.3
<a name="emr-493-release"></a>

## 4.9.3 애플리케이션 버전
<a name="emr-493-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.9.3 | emr-4.9.2 | emr-4.9.1 | emr-4.8.5 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 4.9.3 릴리스 정보
<a name="emr-493-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.9.3에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 4.9.2 릴리스에 관련됩니다.

최초 릴리스 날짜: 2018년 1월 22일

**변경 사항, 향상된 기능 및 해결된 문제**
+ 추론적 실행과 관련된 취약성을 해결하기 위해 Amazon EMR의 기본 Amazon Linux AMI에서 Amazon Linux 커널을 업데이트했습니다(CVE-2017-5715, CVE-2017-5753, CVE-2017-5754). 자세한 내용은 [https://aws.amazon.com/security/security-bulletins/AWS-2018-013/](https://aws.amazon.com/security/security-bulletins/AWS-2018-013/) 단원을 참조하십시오.

## 4.9.3 구성 요소 버전
<a name="emr-493-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.17.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-9 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-9 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-9 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-9 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-9 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.9.3 구성 분류
<a name="emr-493-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.9.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.9.2
<a name="emr-492-release"></a>

## 4.9.2 애플리케이션 버전
<a name="emr-492-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.9.2 | emr-4.9.1 | emr-4.8.5 | emr-4.8.4 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 4.9.2 릴리스 정보
<a name="emr-492-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.9.2에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 4.9.1 릴리스에 관련됩니다.

릴리스 날짜: 2017년 7월 13일

이번 릴리스에서 일반적인 변경, 버그 수정 및 기능 개선이 이루어졌습니다.

## 4.9.2 구성 요소 버전
<a name="emr-492-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.3.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.17.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-9 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-9 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-9 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-9 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-9 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.9.2 구성 분류
<a name="emr-492-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.9.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.9.1
<a name="emr-491-release"></a>

## 4.9.1 애플리케이션 버전
<a name="emr-491-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.9.1 | emr-4.8.5 | emr-4.8.4 | emr-4.8.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 
| Hadoop | 2.7.3-amzn-2 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 
| Hive | 1.0.0-amzn-9 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.157.1 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.3 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.9 | 

## 4.9.1 릴리스 정보
<a name="emr-491-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.9.1에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 4.8.4 릴리스에 관련됩니다.

릴리스 날짜: 2017년 4월 10일

**이전 릴리스에서 해결된 알려진 문제**
+ [HIVE-9976](https://issues.apache.org/jira/browse/HIVE-9976) 및 [HIVE-10106](https://issues.apache.org/jira/browse/HIVE-10106) 백포트
+ YARN에서 다수의 노드(2,000개 이상) 및 컨테이너(5,000개 이상)가 메모리 부족 오류를 야기하던 문제(예: `"Exception in thread main java.lang.OutOfMemoryError"`)가 수정되었습니다.

**변경 사항 및 기능 향상**
+ Amazon EMR 릴리스는 이제 Amazon Linux 2017.03을 기반으로 합니다. 자세한 내용은 [https://aws.amazon.com/amazon-linux-ami/2017.03-release-notes/](https://aws.amazon.com/amazon-linux-ami/2017.03-release-notes/) 단원을 참조하십시오.
+ Amazon EMR 기본 Linux 이미지에서 Python 2.6을 제거했습니다. 필요하다면 Python 2.6을 수동으로 설치할 수도 있습니다.

## 4.9.1 구성 요소 버전
<a name="emr-491-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.3.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.15.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-9 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-9 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-9 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-9 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-9 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-9 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.9.1 구성 분류
<a name="emr-491-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.9.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.8.5
<a name="emr-485-release"></a>

## 4.8.5 애플리케이션 버전
<a name="emr-485-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.8.5 | emr-4.8.4 | emr-4.8.3 | emr-4.8.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 
| Hive | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.157.1 | 0.152.3 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.3 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.9 | 3.4.8 | 

## 4.8.5 릴리스 정보
<a name="emr-485-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 4.8.5 구성 요소 버전
<a name="emr-485-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.14.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-8 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-8 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-8 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-8 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-8 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-8 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.8.5 구성 분류
<a name="emr-485-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.8.5 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.8.4
<a name="emr-484-release"></a>

## 4.8.4 애플리케이션 버전
<a name="emr-484-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.8.4 | emr-4.8.3 | emr-4.8.2 | emr-4.8.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.2-amzn-4 | 
| Hive | 1.0.0-amzn-8 | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.157.1 | 0.152.3 | 0.151 | 
| Spark | 1.6.3 | 1.6.3 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.9 | 3.4.8 | 3.4.8 | 

## 4.8.4 릴리스 정보
<a name="emr-484-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.8.4에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 4.8.3 릴리스에 관련됩니다.

릴리스 날짜: 2017년 2월 7일

이번 릴리스에서 일반적인 변경, 버그 수정 및 기능 개선이 이루어졌습니다.

## 4.8.4 구성 요소 버전
<a name="emr-484-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.14.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-8 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-8 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-8 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-8 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-8 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-8 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.54\$1 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.25\$1 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.8.4 구성 분류
<a name="emr-484-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.8.4 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.8.3
<a name="emr-483-release"></a>

## 4.8.3 애플리케이션 버전
<a name="emr-483-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.8.3 | emr-4.8.2 | emr-4.8.1 | emr-4.8.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.2 | 
| HCatalog | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 
| Hadoop | 2.7.3-amzn-1 | 2.7.3-amzn-0 | 2.7.2-amzn-4 | 2.7.2-amzn-4 | 
| Hive | 1.0.0-amzn-8 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.157.1 | 0.152.3 | 0.151 | 0.151 | 
| Spark | 1.6.3 | 1.6.2 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.6.1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.9 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 4.8.3 릴리스 정보
<a name="emr-483-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.8.3에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 4.8.2 릴리스에 관련됩니다.

릴리스 날짜: 2016년 12월 29일

**업그레이드**
+ Presto 0.157.1로 업그레이드되었습니다. 자세한 내용은 Presto 설명서의 [Presto 릴리스 정보](https://prestodb.io/docs/current/release/release-0.157.1.html)를 참조하십시오.
+ Spark 1.6.3으로 업그레이드되었습니다. 자세한 내용은 Apache Spark 설명서의 [Spark 릴리스 정보](http://spark.apache.org/releases/spark-release-1-6-3.html)를 참조하세요.
+ ZooKeeper 3.4.9로 업그레이드되었습니다. 자세한 내용은 Apache ZooKeeper 설명서의 [ZooKeeper 릴리스 정보](https://zookeeper.apache.org/doc/r3.4.9/releasenotes.html)를 참조하십시오.

**변경 사항 및 기능 향상**
+ Amazon EMR 버전 4.8.3 이상(5.0.0, 5.0.3 및 5.2.0 제외)에서 Amazon EC2 m4.16xlarge 인스턴스 유형에 대한 지원을 추가했습니다.
+ Amazon EMR 릴리스는 이제 Amazon Linux 2016.09를 기반으로 합니다. 자세한 내용은 [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/) 단원을 참조하십시오.

**이전 릴리스에서 해결된 알려진 문제**
+ 대규모 클러스터에서 동일한 파일의 복제 및 삭제 간 경합 때문에 ReplicationMonitor 스레드가 장시간 정체될 수 있는 하둡 문제를 수정했습니다.
+ 작업 상태가 성공적으로 업데이트되지 않은 경우 ControlledJob\$1toString이 null 포인터 예외(NPE)와 함께 실패하는 문제를 수정했습니다.

## 4.8.3 구성 요소 버전
<a name="emr-483-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.2.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.13.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-1 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-8 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-8 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-8 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-8 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-8 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-8 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.157.1 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.157.1 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.3 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.3 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.9 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.9 | ZooKeeper 명령줄 클라이언트. | 

## 4.8.3 구성 분류
<a name="emr-483-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.8.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.8.2
<a name="emr-482-release"></a>

## 4.8.2 애플리케이션 버전
<a name="emr-482-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.8.2 | emr-4.8.1 | emr-4.8.0 | emr-4.7.4 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.2 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 
| Hadoop | 2.7.3-amzn-0 | 2.7.2-amzn-4 | 2.7.2-amzn-4 | 2.7.2-amzn-3 | 
| Hive | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.152.3 | 0.151 | 0.151 | 0.148 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.6.1 | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 4.8.2 릴리스 정보
<a name="emr-482-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.8.2에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 4.8.0 릴리스에 관련됩니다.

릴리스 날짜: 2016년 10월 24일

**업그레이드**
+ Hadoop 2.7.3로 업그레이드
+ Presto 0.152.3로 업그레이드했습니다. 여기에는 Presto 웹 인터페이스에 대한 지원이 포함됩니다. 포트 8889를 사용하여 Presto 코디네이터의 Presto 웹 인터페이스에 액세스할 수 있습니다. Presto 웹 인터페이스에 대한 자세한 내용은 Presto 설명서의 [웹 인터페이스](https://prestodb.io/docs/current/admin/web-interface.html)를 참조하십시오.
+ Amazon EMR 릴리스는 이제 Amazon Linux 2016.09를 기반으로 합니다. 자세한 내용은 [https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.09-release-notes/) 단원을 참조하십시오.

## 4.8.2 구성 요소 버전
<a name="emr-482-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 4.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.10.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.3-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.3-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.3-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.3-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.3-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.3-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.3-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.3-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.3-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.3-amzn-0 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-7 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-7 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-7 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-7 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-7 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-7 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.52 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.152.3 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.152.3 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.8.2 구성 분류
<a name="emr-482-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.8.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.8.1
<a name="emr-481-release"></a>

## 4.8.1 애플리케이션 버전
<a name="emr-481-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.8.1 | emr-4.8.0 | emr-4.7.4 | emr-4.7.3 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.2 | 1.2.1 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 
| Hadoop | 2.7.2-amzn-4 | 2.7.2-amzn-4 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 1.0.0-amzn-7 | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.151 | 0.151 | 0.148 | 0.148 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.4 | 0.8.3 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.6.1 | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 4.8.1 릴리스 정보
<a name="emr-481-relnotes"></a>

## 4.8.1 구성 요소 버전
<a name="emr-481-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.9.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-7 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-7 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-7 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-7 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-7 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-7 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.51 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.151 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.151 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.8.1 구성 분류
<a name="emr-481-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.8.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.8.0
<a name="emr-480-release"></a>

## 4.8.0 애플리케이션 버전
<a name="emr-480-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.8.0 | emr-4.7.4 | emr-4.7.3 | emr-4.7.2 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.2 | 1.2.1 | 1.2.1 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 
| Hadoop | 2.7.2-amzn-4 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 
| Hive | 1.0.0-amzn-7 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.2 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.151 | 0.148 | 0.148 | 0.148 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.4 | 0.8.3 | 0.8.3 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.6.1 | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 4.8.0 릴리스 정보
<a name="emr-480-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.8.0에 대한 정보가 포함됩니다. 변경 사항은 Amazon EMR 4.7.2 릴리스에 관련됩니다.

릴리스 날짜: 2016년 9월 7일

**업그레이드**
+ HBase 1.2.2로 업그레이드
+ Presto-Sandbox 0.151으로 업그레이드
+ Tez 0.8.4로 업그레이드
+ Zeppelin-Sandbox 0.6.1으로 업그레이드

**변경 사항 및 기능 향상**
+ YARN에서 인스턴스가 종료되었기 때문에 더 이상 존재하지 않는 컨테이너를 ApplicationMaster가 정리하려고 시도하는 문제를 수정했습니다.
+ Oozie 예제에서 Hive2 작업에 대한 hive-server2 URL을 수정했습니다.
+ 추가 Presto 카탈로그에 대한 지원을 추가했습니다.
+ 백포트된 패치: [HIVE-8948](https://issues.apache.org/jira/browse/HIVE-8948), [HIVE-12679](https://issues.apache.org/jira/browse/HIVE-12679), [HIVE-13405](https://issues.apache.org/jira/browse/HIVE-13405), [PHOENIX-3116](https://issues.apache.org/jira/browse/PHOENIX-3116), [HADOOP-12689](https://issues.apache.org/jira/browse/HADOOP-12689)
+ 암호화 옵션을 더 쉽게 생성하고 적용할 수 있도록 보안 구성에 대한 지원을 추가했습니다. 자세한 내용은 [데이터 암호화](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-data-encryption.html)를 참조하십시오.

## 4.8.0 구성 요소 버전
<a name="emr-480-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.9.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-4 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.2 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.2 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.2 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.2 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.2 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-7 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-7 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-7 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-7 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-7 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-7 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.51 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.151 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.151 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.4 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.6.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.8.0 구성 분류
<a name="emr-480-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.8.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-blackhole | Presto blackhole.properties 파일에서 값을 변경합니다. | 
| presto-connector-cassandra | Presto cassandra.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| presto-connector-jmx | Presto jmx.properties 파일에서 값을 변경합니다. | 
| presto-connector-kafka | Presto kafka.properties 파일에서 값을 변경합니다. | 
| presto-connector-localfile | Presto localfile.properties 파일에서 값을 변경합니다. | 
| presto-connector-mongodb | Presto mongodb.properties 파일에서 값을 변경합니다. | 
| presto-connector-mysql | Presto mysql.properties 파일에서 값을 변경합니다. | 
| presto-connector-postgresql | Presto postgresql.properties 파일에서 값을 변경합니다. | 
| presto-connector-raptor | Presto raptor.properties 파일에서 값을 변경합니다. | 
| presto-connector-redis | Presto redis.properties 파일에서 값을 변경합니다. | 
| presto-connector-tpch | Presto tpch.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.7.4
<a name="emr-474-release"></a>

## 4.7.4 애플리케이션 버전
<a name="emr-474-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.7.4 | emr-4.7.3 | emr-4.7.2 | emr-4.7.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 
| Hadoop | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-2 | 
| Hive | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.2 | 0.12.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.148 | 0.148 | 0.148 | 0.147 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.2 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 | 0.8.3 | 0.8.3 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 4.7.4 릴리스 정보
<a name="emr-474-relnotes"></a>

Amazon S3에 대한 요청에 AWS 서명 버전 4 인증을 추가하는 패치 릴리스입니다. 모든 애플리케이션 및 구성 요소는 이전 Amazon EMR 릴리스와 동일합니다.

**중요**  
이 릴리스 버전에서 Amazon EMR은 AWS 서명 버전 4만 사용하여 Amazon S3에 대한 요청을 인증합니다. 자세한 내용은 [새 소식](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-whatsnew.html)을 참조하십시오.

## 4.7.4 구성 요소 버전
<a name="emr-474-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.8.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-6 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-6 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-6 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-6 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-6 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-6 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.148 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.148 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.3 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.7.4 구성 분류
<a name="emr-474-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.7.4 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.7.3
<a name="emr-473-release"></a>

## 4.7.3 애플리케이션 버전
<a name="emr-473-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.7.3 | emr-4.7.2 | emr-4.7.1 | emr-4.7.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.75 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.1 | 
| HCatalog | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 
| Hadoop | 2.7.2-amzn-3 | 2.7.2-amzn-3 | 2.7.2-amzn-2 | 2.7.2-amzn-2 | 
| Hive | 1.0.0-amzn-6 | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.2 | 0.12.0 | 0.12.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.148 | 0.148 | 0.147 | 0.147 | 
| Spark | 1.6.2 | 1.6.2 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 | 0.8.3 | 0.8.3 | 0.8.3 | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 4.7.3 릴리스 정보
<a name="emr-473-relnotes"></a>

## 4.7.3 구성 요소 버전
<a name="emr-473-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.8.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-6 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-6 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-6 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-6 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-6 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-6 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.148 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.148 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.3 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.7.3 구성 분류
<a name="emr-473-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.7.3 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.7.2
<a name="emr-472-release"></a>

## 4.7.2 애플리케이션 버전
<a name="emr-472-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.7.2 | emr-4.7.1 | emr-4.7.0 | emr-4.6.1 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.75 | 1.10.27 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.1 | 1.2.1 | 1.2.0 | 
| HCatalog | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 
| Hadoop | 2.7.2-amzn-3 | 2.7.2-amzn-2 | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 
| Hive | 1.0.0-amzn-6 | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.2 | 0.12.0 | 0.12.0 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.148 | 0.147 | 0.147 | 0.143 | 
| Spark | 1.6.2 | 1.6.1 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 | 0.8.3 | 0.8.3 |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 4.7.2 릴리스 정보
<a name="emr-472-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.7.2에 대한 정보가 포함됩니다.

릴리스 날짜: 2016년 7월 15일

**특성**
+ Mahout 0.12.2로 업그레이드
+ Presto 0.148으로 업그레이드
+ Spark 1.6.2로 업그레이드
+ 이제 URI를 파라미터로 사용하여 EMRFS과 함께 사용할 AWSCredentialsProvider를 생성할 수 있습니다. 자세한 내용은 [EMRFS에 대한 AWSCredentialsProvider 생성](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-plan-credentialsprovider.html)을 참조하십시오.
+ 이제 EMRFS에서 사용자는 `emrfs-site.xml`의 `fs.s3.consistent.dynamodb.endpoint` 속성을 사용하여 일관된 보기 메타데이터에 대한 사용자 지정 DynamoDB 엔드포인트를 구성할 수 있습니다.
+ `/usr/bin`이라고 하는 `spark-example`에 스크립트가 추가되면서 `/usr/lib/spark/spark/bin/run-example`을 래핑하여 직접 예제를 실행할 수 있습니다. 예를 들어, Spark 배포와 함께 제공되는 SparkPi 예제를 실행하려면 명령줄에서 또는 `spark-example SparkPi 100`을 API에서 단계로 사용하여 `command-runner.jar`를 실행할 수 있습니다.

**이전 릴리스에서 해결된 알려진 문제**
+ Oozie 와 함께 Spark도 설치된 경우 `spark-assembly.jar`이 올바른 위치에 있지 않아서 Spark 애플리케이션이 Oozie와 함께 시작되지 못하는 문제를 수정했습니다.
+ YARN 컨테이너에서 Spark Log4j 기반 로깅 문제를 수정했습니다.

## 4.7.2 구성 요소 버전
<a name="emr-472-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.1.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.8.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-3 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-3 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-3 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-3 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-3 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-3 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-3 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-3 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-3 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-3 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-6 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-6 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-6 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-6 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-6 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-6 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.2 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.148 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.148 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.3 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.23 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.7.2 구성 분류
<a name="emr-472-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.7.2 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. | 
| hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.7.1
<a name="emr-471-release"></a>

## 4.7.1 애플리케이션 버전
<a name="emr-471-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.7.1 | emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.75 | 1.10.27 | 1.10.27 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.1 | 1.2.0 | 1.2.0 | 
| HCatalog | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hadoop | 2.7.2-amzn-2 | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 
| Hive | 1.0.0-amzn-5 | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.0 | 0.12.0 | 0.11.1 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 | 4.7.0-HBase-1.2 |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.147 | 0.147 | 0.143 | 0.143 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 | 0.8.3 |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 | 3.4.8 | 

## 4.7.1 릴리스 정보
<a name="emr-471-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.7.1에 대한 정보가 포함됩니다.

릴리스 날짜: 2016년 6월 10일

**이전 릴리스에서 해결된 알려진 문제**
+ VPC에서 프라이빗 서브넷을 사용하여 시작된 클러스터의 스타트업 시간을 연장하는 문제를 수정했습니다. 이 버그는 Amazon EMR 4.7.0 릴리스를 사용하여 시작된 클러스터에만 영향을 미칩니다.
+ Amazon EMR 4.7.0 릴리스를 사용하여 시작된 클러스터의 경우 Amazon EMR에서 파일 목록을 부적절하게 처리하는 문제를 수정했습니다.

## 4.7.1 구성 요소 버전
<a name="emr-471-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.7.1 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-5 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-5 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-5 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-5 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-5 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-5 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.147 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.147 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.3 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.18 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.7.1 구성 분류
<a name="emr-471-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.7.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.7.0
<a name="emr-470-release"></a>

## 4.7.0 애플리케이션 버전
<a name="emr-470-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [https://phoenix.apache.org/](https://phoenix.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://tez.apache.org/](https://tez.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.7.0 | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.75 | 1.10.27 | 1.10.27 | 1.10.27 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.1 | 1.2.0 | 1.2.0 |  -  | 
| HCatalog | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hadoop | 2.7.2-amzn-2 | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 
| Hive | 1.0.0-amzn-5 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-7 | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.12.0 | 0.11.1 | 0.11.1 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix | 4.7.0-HBase-1.2 |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.147 | 0.143 | 0.143 | 0.140 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez | 0.8.3 |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 | 3.4.8 |  -  | 

## 4.7.0 릴리스 정보
<a name="emr-470-relnotes"></a>

**중요**  
Amazon EMR 4.7.0은 더 이상 사용되지 않습니다. 대신 Amazon EMR 4.7.1 이상을 사용합니다.

릴리스 날짜: 2016년 6월 2일

**특성**
+ Apache Phoenix 4.7.0 추가
+ Apache Tez 0.8.3 추가
+ HBase 1.2.1으로 업그레이드
+ Mahout 0.12.0로 업그레이드
+ Presto 0.147으로 업그레이드
+ 를 1.10.75 AWS SDK for Java 로 업그레이드했습니다.
+ 사용자가 로컬 모드에서 Pig를 실행할 수 있도록 `mapreduce.cluster.local.dir`의 `mapred-site.xml` 속성에서 최종 플래그가 제거되었습니다.
+ 클러스터에서 사용할 수 있는 Amazon Redshift JDBC 드라이버

  이제 Amazon Redshift JDBC 드라이버는 `/usr/share/aws/redshift/jdbc`에 포함됩니다. `/usr/share/aws/redshift/jdbc/RedshiftJDBC41.jar`은 JDBC 4.1 호환 Amazon Redshift 드라이버이고 `/usr/share/aws/redshift/jdbc/RedshiftJDBC4.jar`은 JDBC 4.0 호환 Amazon Redshift 드라이버입니다. 자세한 내용은 *Amazon Redshift 관리 안내서*에서 [JDBC 연결 구성](https://docs.aws.amazon.com/redshift/latest/mgmt/configure-jdbc-connection.html)을 참조하세요.
+ Java 8

  Presto를 제외하고 모든 애플리케이션에 사용되는 기본 JDK는 OpenJDK 1.7입니다. 하지만 OpenJDK 1.7 및 1.8이 모두 설치됩니다. 애플리케이션에 대해 `JAVA_HOME`을 설정하는 방법에 대한 자세한 내용은 [Java 8을 사용하도록 애플리케이션 구성](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html#configuring-java8)을 참조하십시오.

**이전 릴리스에서 해결된 알려진 문제**
+ emr-4.6.0에서 Amazon EMR에 사용되는 처리량에 최적화된 HDD(st1) EBS 볼륨의 성능에 상당한 영향을 미치는 커널 문제를 수정했습니다.
+ 하둡을 애플리케이션으로 선택하지 않고 HDFS 암호화 영역을 지정할 경우 클러스터가 실패하는 문제를 수정했습니다.
+ 기본 HDFS 쓰기 정책을 `RoundRobin`에서 `AvailableSpaceVolumeChoosingPolicy`로 변경했습니다. RoundRobin 구성에서 일부 볼륨이 제대로 이용되지 않았으며 결과적으로 코어 노드가 실패하고 HDFS가 불안정한 상태가 되었습니다.
+ 일관된 보기에 대한 기본 DynamoDB 메타데이터 테이블을 생성할 때 예외가 발생하는 EMRFS CLI 문제를 수정했습니다.
+ 멀티파트 이름 바꾸기 및 복사 작업 중에 발생할 수 있는 EMRFS의 교착 문제를 수정했습니다.
+ CopyPart 크기가 기본적으로 5MB로 설정되는 EMRFS 문제를 수정했습니다. 기본값은 이제 128MB로 올바르게 설정됩니다.
+ 서비스를 중단할 수 없는 Zeppelin upstart 구성 문제를 수정했습니다.
+ `s3a://`이 해당 클래스 경로에 올바르게 로드되지 않기 때문에 `/usr/lib/hadoop/hadoop-aws.jar` URI 스키마를 사용할 수 없는 Spark 및 Zeppelin 문제를 수정했습니다.
+ [HUE-2484](https://issues.cloudera.org/browse/HUE-2484)를 백포트했습니다.
+ HBase 브라우저 샘플 문제를 수정하기 위해 Hue 3.9.0(JIRA가 존재하지 않음)의 [커밋](https://github.com/cloudera/hue/commit/c3c89f085e7a29c9fac7de016d881142d90af3eb)을 백포트했습니다.
+ [HIVE-9073](https://issues.apache.org/jira/browse/HIVE-9073)를 백포트했습니다.

## 4.7.0 구성 요소 버전
<a name="emr-470-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.2.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.4.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.7.1 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hadoop-yarn-timeline-server | 2.7.2-amzn-2 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 | 
| hbase-hmaster | 1.2.1 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.1 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.1 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.1 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.1 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-5 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-5 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-5 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-5 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-5 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-5 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-7 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.12.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5.46 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| phoenix-library | 4.7.0-HBase-1.2 | 서버 및 클라이언트의 phoenix 라이브러리 | 
| phoenix-query-server | 4.7.0-HBase-1.2 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버  | 
| presto-coordinator | 0.147 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.147 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| tez-on-yarn | 0.8.3 | tez YARN 애플리케이션 및 라이브러리. | 
| webserver | 2.4.18 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.7.0 구성 분류
<a name="emr-470-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.7.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일에서 값을 변경합니다. | 
| phoenix-hbase-site | Phoenix hbase-site.xml 파일에서 값을 변경합니다. | 
| phoenix-log4j | Phoenix log4j.properties 파일에서 값을 변경합니다. | 
| phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| tez-site | Tez tez-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.6.1
<a name="emr-461-release"></a>

## 4.6.1 애플리케이션 버전
<a name="emr-461-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.6.1 | emr-4.6.0 | emr-4.5.0 | emr-4.4.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.27 | 1.10.27 | 1.10.27 | 1.10.27 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.0 | 1.2.0 |  -  |  -  | 
| HCatalog | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 
| Hadoop | 2.7.2-amzn-1 | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 2.7.1-amzn-1 | 
| Hive | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-6 | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.1 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.143 | 0.143 | 0.140 | 0.136 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.1 | 1.6.0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 | 3.4.8 |  -  |  -  | 

## 4.6.1 릴리스 정보
<a name="emr-461-relnotes"></a>

## 4.6.1 구성 요소 버전
<a name="emr-461-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.3.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.6.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hbase-hmaster | 1.2.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-4 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-4 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-4 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-4 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-6 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.11.1 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| presto-coordinator | 0.143 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.143 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| webserver | 2.4 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.6.1 구성 분류
<a name="emr-461-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.6.1 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.6.0
<a name="emr-460-release"></a>

## 4.6.0 애플리케이션 버전
<a name="emr-460-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hbase.apache.org/](http://hbase.apache.org/), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/), [https://zookeeper.apache.org](https://zookeeper.apache.org)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.6.0 | emr-4.5.0 | emr-4.4.0 | emr-4.3.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.27 | 1.10.27 | 1.10.27 | 1.10.27 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 | 
| HBase | 1.2.0 |  -  |  -  |  -  | 
| HCatalog | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 |  -  | 
| Hadoop | 2.7.2-amzn-1 | 2.7.2-amzn-0 | 2.7.1-amzn-1 | 2.7.1-amzn-0 | 
| Hive | 1.0.0-amzn-4 | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 1.0.0-amzn-2 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-6 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.1 | 0.11.1 | 0.11.1 | 0.11.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.143 | 0.140 | 0.136 | 0.130 | 
| Spark | 1.6.1 | 1.6.1 | 1.6.0 | 1.6.0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 | 1.4.6 |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.6-incubating | 0.5.5-incubating-amzn-1 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox | 3.4.8 |  -  |  -  |  -  | 

## 4.6.0 릴리스 정보
<a name="emr-460-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.6.0에 대한 정보가 포함됩니다.
+ HBase 1.2.0 추가
+ Zookeeper-Sandbox 3.4.8 추가 
+ Presto-Sandbox 0.143로 업그레이드
+ Amazon EMR 릴리스는 이제 Amazon Linux 2016.03.0을 기반으로 합니다. 자세한 내용은 [https://aws.amazon.com/amazon-linux-ami/2016.03-release-notes/](https://aws.amazon.com/amazon-linux-ami/2016.03-release-notes/) 단원을 참조하십시오.
+ 처리량에 최적화된 HDD(st1) EBS 볼륨 유형에 영향을 미치는 문제

  Linux 커널 버전 4.2 이상의 문제는 EMR에 사용되는 처리량에 최적화된 HDD(st1) EBS 볼륨의 성능에 상당한 영향을 미칩니다. 이 릴리스(emr-4.6.0)는 커널 버전 4.4.5를 사용하므로 영향을 받습니다. 따라서 st1 EBS 볼륨을 사용하려는 경우 emr-4.6.0를 사용하지 않는 것이 좋습니다. emr-4.5.0 이전의 Amazon EMR 릴리스를 st1과 함께 사용하면 영향을 받지 않을 수 있습니다. 또한 향후 릴리스에서 수정을 제공합니다.
+ Python 기본값

  이제 Python 3.4가 기본적으로 설치되지만, 시스템 기본값은 여전히 Python 2.7입니다. 부트스트랩 작업을 사용하여 Python 3.4를 시스템 기본값으로 구성할 수 있습니다. 구성 API를 사용하여 `/usr/bin/python3.4` 분류의 PYSPARK\$1PYTHON 내보내기를 `spark-env`로 설정하면 PySpark에서 사용되는 Python 버전에 영향을 미칠 수 있습니다.
+ Java 8

  Presto를 제외하고 모든 애플리케이션에 사용되는 기본 JDK는 OpenJDK 1.7입니다. 하지만 OpenJDK 1.7 및 1.8이 모두 설치됩니다. 애플리케이션에 대해 `JAVA_HOME`을 설정하는 방법에 대한 자세한 내용은 [Java 8을 사용하도록 애플리케이션 구성](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html#configuring-java8)을 참조하십시오.

**이전 릴리스에서 해결된 알려진 문제**
+ 생성된 암호로 인해 애플리케이션 프로비저닝이 가끔 임의로 실패하는 문제를 수정했습니다.
+ 이전에는 `mysqld`가 모든 노드에 설치되었습니다. 이제 이 항목은 마스터 인스턴스에만 설치되며 선택한 애플리케이션에 `mysql-server`가 구성 요소로 포함되는 경우에만 설치됩니다. 현재 HCatalog, Hive, Hue, Presto-Sandbox, Sqoop-Sandbox 등의 애플리케이션에 `mysql-server` 구성 요소가 포함됩니다.
+ `yarn.scheduler.maximum-allocation-vcores`를 기본값 32에서 80으로 변경했습니다. 이 변경에 따라 emr-4.4.0에 도입된 한 가지 문제가 수정됩니다. 이 문제는 코어 인스턴스 유형이 32 이상의 YARN vcore 세트를 갖춘 몇 가지 대규모 인스턴스 유형 중 하나인 클러스터에서 `maximizeResourceAllocation` 옵션을 사용하는 동안 주로 Spark에 발생합니다. 다시 말해서 c4.8xlarge, cc2.8xlarge, hs1.8xlarge, i2.8xlarge, m2.4xlarge, r3.8xlarge, d2.8xlarge 또는 m4.10xlarge가 이 문제의 영향을 받습니다.
+ s3-dist-cp는 이제 모든 Amazon S3 추천에 EMRFS를 사용하며 더 이상 임시 HDFS 디렉터리로 준비하지 않습니다.
+ 클라이언트 측 암호화 멀티파트 업로드에 대한 예외 처리 문제를 수정했습니다.
+ 사용자가 Amazon S3 스토리지 클래스를 변경할 수 있는 옵션을 추가했습니다. 기본적으로 이 설정은 `STANDARD`입니다. `emrfs-site` 구성 분류 설정은 `fs.s3.storageClass`이며 가능한 값은 `STANDARD`, `STANDARD_IA` 및 `REDUCED_REDUNDANCY`입니다. 스토리지 클래스에 대한 자세한 내용은 *Amazon Simple Storage Service 사용 설명서*에서 [스토리지 클래스](https://docs.aws.amazon.com/AmazonS3/latest/userguide/storage-class-intro.html)를 참조하세요.

## 4.6.0 구성 요소 버전
<a name="emr-460-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.3.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.6.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hbase-hmaster | 1.2.0 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 | 
| hbase-region-server | 1.2.0 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 | 
| hbase-client | 1.2.0 | HBase 명령줄 클라이언트 | 
| hbase-rest-server | 1.2.0 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 | 
| hbase-thrift-server | 1.2.0 | HBase에 Thrift 엔드포인트를 제공하는 서비스 | 
| hcatalog-client | 1.0.0-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-4 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-4 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-4 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-4 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-6 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.11.1 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| presto-coordinator | 0.143 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.143 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| webserver | 2.4 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 
| zookeeper-server | 3.4.8 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. | 
| zookeeper-client | 3.4.8 | ZooKeeper 명령줄 클라이언트. | 

## 4.6.0 구성 분류
<a name="emr-460-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.6.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hbase-env | HBase 환경에서 값을 변경합니다. | 
| hbase-log4j | HBase hbase-log4j.properties 파일에서 값을 변경합니다. | 
| hbase-metrics | HBase hadoop-metrics2-hbaase.properties 파일에서 값을 변경합니다. | 
| hbase-policy | HBase hbase-policy.xml 파일에서 값을 변경합니다. | 
| hbase-site | HBase hbase-site.xml 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 
| zookeeper-config | ZooKeeper zoo.cfg 파일에서 값을 변경합니다. | 
| zookeeper-log4j | ZooKeeper log4j.properties 파일에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.5.0
<a name="emr-450-release"></a>

## 4.5.0 애플리케이션 버전
<a name="emr-450-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.5.0 | emr-4.4.0 | emr-4.3.0 | emr-4.2.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.27 | 1.10.27 | 1.10.27 | 1.10.27 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.6.0 | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog | 1.0.0-amzn-4 | 1.0.0-amzn-3 |  -  |  -  | 
| Hadoop | 2.7.2-amzn-0 | 2.7.1-amzn-1 | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 
| Hive | 1.0.0-amzn-4 | 1.0.0-amzn-3 | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.1 | 0.11.1 | 0.11.0 | 0.11.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.2.0 | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.140 | 0.136 | 0.130 | 0.125 | 
| Spark | 1.6.1 | 1.6.0 | 1.6.0 | 1.5.2 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 | 1.4.6 |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.6-incubating | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## 4.5.0 릴리스 정보
<a name="emr-450-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.5.0에 대한 정보가 포함됩니다.

릴리스 날짜: 2016년 4월 4일

**특성**
+ Spark 1.6.1으로 업그레이드
+ Hadoop 2.7.2로 업그레이드
+ Presto 0.140로 업그레이드
+ Amazon S3 서버 측 암호화에 대한 AWS KMS 지원이 추가되었습니다.

**이전 릴리스에서 해결된 알려진 문제**
+ 노드를 재부팅한 후 MySQL 및 Apache 서버가 시작되지 않는 문제를 수정했습니다.
+ Amazon S3에 파티션되지 않은 테이블이 저장되면 IMPORT가 올바르게 작동하지 않는 문제를 수정했습니다.
+ Hive 테이블에 쓸 때 준비 디렉터리를 `/mnt/tmp` 대신 `/tmp`로 지정해야 하는 Presto 문제를 수정했습니다.

## 4.5.0 구성 요소 버전
<a name="emr-450-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.2.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.5.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.2-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.2-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.2-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.2-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.2-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.2-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.2-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.2-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.2-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hcatalog-client | 1.0.0-amzn-4 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-4 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-4 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-4 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-4 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-4 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-5 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.11.1 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| presto-coordinator | 0.140 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.140 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| webserver | 2.4 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 

## 4.5.0 구성 분류
<a name="emr-450-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.5.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.4.0
<a name="emr-440-release"></a>

## 4.4.0 애플리케이션 버전
<a name="emr-440-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [https://cwiki.apache.org/confluence/display/Hive/HCatalog](https://cwiki.apache.org/confluence/display/Hive/HCatalog), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [http://sqoop.apache.org/](http://sqoop.apache.org/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.4.0 | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.27 | 1.10.27 | 1.10.27 | 추적되지 않음 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.7.2 | 3.6.0 |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog | 1.0.0-amzn-3 |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-1 | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 
| Hive | 1.0.0-amzn-3 | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.1 | 0.11.0 | 0.11.0 | 0.11.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.2.0 | 4.0.1 | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.136 | 0.130 | 0.125 | 0.119 | 
| Spark | 1.6.0 | 1.6.0 | 1.5.2 | 1.5.0 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox | 1.4.6 |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.6-incubating | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## 4.4.0 릴리스 정보
<a name="emr-440-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.4.0에 대한 정보가 포함됩니다.

릴리스 날짜: 2016년 3월 14일

**특성**
+ HCatalog 1.0.0 추가
+ Sqoop-Sandbox 1.4.6 추가
+ Presto 0.136로 업그레이드
+ Zeppelin 0.5.6로 업그레이드
+ Mahout 0.11.1으로 업그레이드
+ `dynamicResourceAllocation`을 기본적으로 활성화했습니다.
+ 릴리스에 대한 모든 구성 분류의 표를 추가했습니다. 자세한 내용은 [애플리케이션 구성](https://docs.aws.amazon.com/emr/latest/ReleaseGuide/emr-configure-apps.html)의 구성 분류 표를 참조하세요.

**이전 릴리스에서 해결된 알려진 문제**
+ `maximizeResourceAllocation` 설정에서 YARN ApplicationMaster 데몬에 충분한 메모리가 예약되지 않는 문제를 수정했습니다.
+ 사용자 지정 DNS에 발생하는 문제를 수정했습니다. 제공된 사용자 지정 항목 앞에 `resolve.conf`의 항목이 있으면 사용자 지정 항목을 확인할 수 없습니다. 이 동작은 기본 VPC 이름 서버가 `resolve.conf`에 최상위 항목으로 삽입되는 VPC의 클러스터에서 영향을 받은 것입니다.
+ 기본 Python이 버전 2.7으로 이동하고 해당 버전에 대해 boto가 설치되지 않는 문제를 수정했습니다.
+ YARN 컨테이너와 Spark 애플리케이션이 고유의 Ganglia rrd(round robin database) 파일을 생성하여 인스턴스에 연결된 첫 번째 디스크가 가득 채워지는 문제를 수정했습니다. 이러한 수정으로 인해 YARN 컨테이너 수준 지표가 비활성화되었으며 Spark 애플리케이션 수준 지표가 비활성화되었습니다.
+ 로그 푸셔에서 비어 있는 모든 로그 폴더가 삭제되는 문제를 수정했습니다. 이 문제의 영향으로 로그 푸셔가 `user`에서 비어 있는 `/var/log/hive` 폴더를 제거하기 때문에 Hive CLI가 로그를 작성할 수 없었습니다.
+ Hive 가져오기에 영향을 미치는 문제를 수정했습니다. 이 문제는 파티셔닝에 영향을 미치며 결과적으로 가져오기 중 오류가 발생했습니다.
+ EMRFS 및 s3-dist-cp에서 마침표가 포함된 버킷 이름이 올바르게 처리되지 않는 문제를 수정했습니다.
+ 버전 관리를 사용하는 버킷에서 `_$folder$` 마커 파일이 연속적으로 생성되지 않도록 EMRFS의 동작을 변경했습니다. 이 변경은 버전 관리를 사용하는 버킷의 성능을 향상하는 데 도움이 될 수 있습니다.
+ 클라이언트 측 암호화를 사용하는 경우를 제외하고 지침 파일을 사용하지 않도록 EMRFS의 동작을 변경했습니다. 클라이언트 측 암호화를 사용하는 동안 지침 파일을 삭제하려는 경우 emrfs-site.xml 속성인 `fs.s3.cse.cryptoStorageMode.deleteInstructionFiles.enabled`를 true로 설정할 수 있습니다.
+ 2일 동인 집계 대상에서 로그를 유지하도록 Changed YARN 로그 집계를 변경했습니다. 기본 대상은 클러스터의 HDFS 스토리지입니다. 이 기간을 변경하려는 경우 클러스터를 생성할 때 `yarn.log-aggregation.retain-seconds` 분류를 사용하여 `yarn-site`의 값을 변경합니다. 평소와 같이, 클러스터를 생성할 때 `log-uri` 파라미터를 사용하여 애플리케이션 로그를 Amazon S3에 저장할 수 있습니다.

**적용된 패치**
+ [HIVE-9655](https://issues.apache.org/jira/browse/HIVE-9655)
+ [HIVE-9183](https://issues.apache.org/jira/browse/HIVE-9183)
+ [HADOOP-12810](https://issues.apache.org/jira/browse/HADOOP-12810)

## 4.4.0 구성 요소 버전
<a name="emr-440-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.2.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.4.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.1-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.1-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.1-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.1-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.1-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.1-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.1-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.1-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.1-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hcatalog-client | 1.0.0-amzn-3 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 | 
| hcatalog-server | 1.0.0-amzn-3 | 분산 애플리케이션용 스토리지 관리 계층, 테이블 및 HCatalog를 제공하는 서비스 | 
| hcatalog-webhcat-server | 1.0.0-amzn-3 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 | 
| hive-client | 1.0.0-amzn-3 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-3 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-3 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-5 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.11.1 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| presto-coordinator | 0.136 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.136 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| sqoop-client | 1.4.6 | Apache Sqoop 명령줄 클라이언트. | 
| webserver | 2.4 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.6-incubating | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 

## 4.4.0 구성 분류
<a name="emr-440-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.4.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hcatalog-env | HCatalog 환경에서 값을 변경합니다. | 
| hcatalog-server-jndi | HCatalog jndi.properties 환경에서 값을 변경합니다. | 
| hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml에서 값을 변경합니다. | 
| hcatalog-webhcat-env | HCatalog WebHCat 환경에서 값을 변경합니다. | 
| hcatalog-webhcat-log4j | HCatalog WebHCat log4j.properties 파일에서 값을 변경합니다. | 
| hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| sqoop-env | Sqoop 환경에서 값을 변경합니다. | 
| sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일에서 값을 변경합니다. | 
| sqoop-site | Sqoop sqoop-site.xml 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.3.0
<a name="emr-430-release"></a>

## 4.3.0 애플리케이션 버전
<a name="emr-430-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.27 | 1.10.27 | 추적되지 않음 | 추적되지 않음 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## 4.3.0 릴리스 정보
<a name="emr-430-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.3.0에 대한 정보가 포함됩니다.

릴리스 날짜: 2016년 1월 19일

**특성**
+ Hadoop 2.7.1으로 업그레이드
+ Spark 1.6.0로 업그레이드
+ Ganglia를 3.7.2로 업그레이드 
+ Presto를 0.130로 업그레이드
+ Amazon EMR에서 `spark.dynamicAllocation.enabled`를 true로 설정한 경우 이 설정이 약간 변경되었습니다. 이 설정은 기본적으로 false입니다. 이 값을 true로 설정하면 이 설정은 `maximizeResourceAllocation` 설정을 통해 지정된 기본값에 영향을 미칩니다.
  + `spark.dynamicAllocation.enabled`가 true로 설정되면 `spark.executor.instances`에서 `maximizeResourceAllocation`가 설정되지 않습니다.
  + 이제 `spark.driver.memory` 설정은 `spark.executors.memory`가 설정되는 방식과 비슷한 방식으로 클러스터의 인스턴스 유형에 따라 구성됩니다. 하지만 Spark 드라이버 애플리케이션을 마스터 또는 코어 인스턴스 중 하나에서(예를 들면 각각 YARN 클라이언트 및 클러스터 모드에서) 실행할 수 있으므로 `spark.driver.memory` 설정이 이러한 두 인스턴스 그룹 중 더 작은 인스턴스 유형에 따라 설정됩니다.
  + 이제 `spark.default.parallelism` 설정은 YARN 컨테이너에 사용할 수 있는 CPU 코어 수의 두 배로 설정됩니다. 이전 릴리스에서 이 설정은 해당 값의 절반이었습니다.
  + Spark YARN 프로세스에서 예약된 메모리 오버헤드에 대한 계산이 더 정확하게 조정되어 Spark에 사용 가능한 총 메모리 양(즉, `spark.executor.memory`)이 약간 증가했습니다.

**이전 릴리스에서 해결된 알려진 문제**
+ 이제 YARN 로그 집계가 기본적으로 활성화됩니다.
+ YARN 로그 집계를 활성화하면 로그가 클러스터의 Amazon S3 로그 버킷에 푸시되지 않는 문제를 수정했습니다.
+ 이제 YARN 컨테이너 크기의 새로운 최소값은 모든 노드 유형에서 32입니다.
+ 대규모 클러스터의 프라이머리 노드에 과도한 디스크 I/O를 유발하는 Ganglia 문제를 수정했습니다.
+ 클러스터를 종료할 때 애플리케이션 로그가 Amazon S3에 푸시되지 않는 문제를 수정했습니다.
+ EMRFS CLI에서 특정 명령이 실패하는 문제를 수정했습니다.
+ 종속성이 기본 SparkContext에 로드되지 않는 Zeppelin 문제를 수정했습니다.
+ 크기 조정을 실행하여 인스턴스를 추가하려고 할 때 발생하는 문제를 수정했습니다.
+ Hive에서 CREATE TABLE AS SELECT를 실행하면 Amazon S3에 대한 목록이 과도하게 직접 호출되는 문제를 수정했습니다.
+ Hue, Oozie 및 Ganglia를 설치하면 대규모 클러스터가 제대로 프로비저닝되지 않는 문제를 수정했습니다.
+ s3-dist-cp가 오류로 실패하더라도 0 종료 코드가 반환되는 문제를 수정했습니다.

## 4.3.0 구성 요소 버전
<a name="emr-430-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.1.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.3.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.7.2 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.7.1-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.7.1-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.7.1-amzn-0 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.7.1-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.7.1-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.7.1-amzn-0 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.7.1-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.7.1-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.7.1-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hive-client | 1.0.0-amzn-2 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-2 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-2 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-5 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.11.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| presto-coordinator | 0.130 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.130 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.6.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.6.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.6.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.6.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| webserver | 2.4 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.5-incubating-amzn-1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 

## 4.3.0 구성 분류
<a name="emr-430-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.3.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.2.0
<a name="emr-420-release"></a>

## 4.2.0 애플리케이션 버전
<a name="emr-420-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://ganglia.info](http://ganglia.info), [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.27 | 1.10.27 | 추적되지 않음 | 추적되지 않음 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## 4.2.0 릴리스 정보
<a name="emr-420-relnotes"></a>

다음 릴리스 정보에는 Amazon EMR 릴리스 4.2.0에 대한 정보가 포함됩니다.

릴리스 날짜: 2015년 11월 18일

**특성**
+ Ganglia 지원 추가
+ Spark 1.5.2로 업그레이드
+ Presto 0.125로 업그레이드
+ Oozie를 4.2.0로 업그레이드
+ Zeppelin을 0.5.5로 업그레이드
+ 를 1.10.27 AWS SDK for Java 로 업그레이드했습니다.

**이전 릴리스에서 해결된 알려진 문제**
+ 기본 메타데이터 테이블 이름이 사용되지 않는 EMRFS CLI 문제를 수정했습니다.
+ Amazon S3에서 ORC 지원 테이블을 사용할 때 발생하는 문제를 수정했습니다.
+ Spark 구성에서 Python 버전이 일치하지 않는 경우 발생하는 문제를 수정했습니다.
+ VPC에서 클러스터의 DNS 문제 때문에 YARN 노드 상태가 보고되지 않는 문제를 수정했습니다.
+ YARN에서 노드를 폐기하면 애플리케이션이 정지되거나 새 애플리케이션을 예약할 수 없게 되는 문제를 수정했습니다.
+ 클러스터가 TIMED\$1OUT\$1STARTING 상태로 종료될 때 발생하는 문제를 수정했습니다.
+ EMRFS Scala 종속성을 다른 빌드에 포함시킬 때 발생하는 문제를 수정했습니다. Scala 종속성이 제거되었습니다.

## 4.2.0 구성 요소 버전
<a name="emr-420-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.0.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.2.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| ganglia-monitor | 3.6.0 | 하둡 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. | 
| ganglia-metadata-collector | 3.6.0 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. | 
| ganglia-web | 3.5.10 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. | 
| hadoop-client | 2.6.0-amzn-2 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.6.0-amzn-2 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.6.0-amzn-2 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.6.0-amzn-2 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.6.0-amzn-2 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.6.0-amzn-2 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.6.0-amzn-2 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.6.0-amzn-2 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.6.0-amzn-2 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hive-client | 1.0.0-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-5 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.11.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.2.0 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.2.0 | Oozie 워크플로 요청을 수락하는 서비스 | 
| presto-coordinator | 0.125 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.125 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.5.2 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.5.2 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.5.2 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.5.2 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| webserver | 2.4 | Apache HTTP 서버. | 
| zeppelin-server | 0.5.5-incubating-amzn-0 | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 

## 4.2.0 구성 분류
<a name="emr-420-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.2.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| presto-connector-hive | Presto hive.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| spark-metrics | Spark metrics.properties 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.1.0
<a name="emr-410-release"></a>

## 4.1.0 애플리케이션 버전
<a name="emr-410-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://gethue.com/](http://gethue.com/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://oozie.apache.org/](http://oozie.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://prestodb.io/](https://prestodb.io/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/), [https://zeppelin.incubator.apache.org/](https://zeppelin.incubator.apache.org/)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.27 | 1.10.27 | 추적되지 않음 | 추적되지 않음 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## 4.1.0 릴리스 정보
<a name="emr-410-relnotes"></a>

## 4.1.0 구성 요소 버전
<a name="emr-410-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.1.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.0.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.1.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| hadoop-client | 2.6.0-amzn-1 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.6.0-amzn-1 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-library | 2.6.0-amzn-1 | HDFS 명령줄 클라이언트 및 라이브러리 | 
| hadoop-hdfs-namenode | 2.6.0-amzn-1 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.6.0-amzn-1 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-kms-server | 2.6.0-amzn-1 | 하둡의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 | 
| hadoop-mapred | 2.6.0-amzn-1 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.6.0-amzn-1 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.6.0-amzn-1 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hive-client | 1.0.0-amzn-1 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-1 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-1 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| hue-server | 3.7.1-amzn-4 | 하둡 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. | 
| mahout-client | 0.11.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5 | MySQL 데이터베이스 서버. | 
| oozie-client | 4.0.1 | Oozie 명령줄 클라이언트 | 
| oozie-server | 4.0.1 | Oozie 워크플로 요청을 수락하는 서비스 | 
| presto-coordinator | 0.119 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. | 
| presto-worker | 0.119 | 여러 쿼리를 실행하는 서비스. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.5.0 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.5.0 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.5.0 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.5.0 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 
| zeppelin-server | 0.6.0-incubating-SNAPSHOT | 대화형 데이터 분석이 가능한 웹 기반 노트북 | 

## 4.1.0 구성 분류
<a name="emr-410-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.1.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| hue-ini | Hue ini 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-acls | Hadoop kms-acls.xml 파일에서 값을 변경합니다. | 
| hadoop-kms-env | Hadoop KMS 환경에서 값을 변경합니다. | 
| hadoop-kms-log4j | Hadoop kms-log4j.properties 파일에서 값을 변경합니다. | 
| hadoop-kms-site | Hadoop kms-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| oozie-env | Oozie 환경에서 값을 변경합니다. | 
| oozie-log4j | Oozie oozie-log4j.properties 파일에서 값을 변경합니다. | 
| oozie-site | Oozie oozie-site.xml 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| presto-log | Presto log.properties 파일에서 값을 변경합니다. | 
| presto-config | Presto config.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 
| zeppelin-env | Zeppelin 환경에서 값을 변경합니다. | 

# Amazon EMR 릴리스 4.0.0
<a name="emr-400-release"></a>

## 4.0.0 애플리케이션 버전
<a name="emr-400-app-versions"></a>

이 릴리스에 포함된 애플리케이션은 [http://hadoop.apache.org/docs/current/](http://hadoop.apache.org/docs/current/), [http://hive.apache.org/](http://hive.apache.org/), [http://mahout.apache.org/](http://mahout.apache.org/), [http://pig.apache.org/](http://pig.apache.org/), [https://spark.apache.org/docs/latest/](https://spark.apache.org/docs/latest/)입니다.

아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.

각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
+ [Amazon EMR 7.x 릴리스의 애플리케이션 버전](emr-release-app-versions-7.x.md)
+ [Amazon EMR 6.x 릴리스의 애플리케이션 버전](emr-release-app-versions-6.x.md)
+ [Amazon EMR 5.x 릴리스의 애플리케이션 버전](emr-release-app-versions-5.x.md)
+ [Amazon EMR 4.x 릴리스의 애플리케이션 버전](emr-release-app-versions-4.x.md)


**애플리케이션 버전 정보**  

|  | emr-4.3.0 | emr-4.2.0 | emr-4.1.0 | emr-4.0.0 | 
| --- | --- | --- | --- | --- | 
| AWS Java용 SDK | 1.10.27 | 1.10.27 | 추적되지 않음 | 추적되지 않음 | 
| Python | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| Scala | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 추적되지 않음 | 
| AmazonCloudWatchAgent |  -  |  -  |  -  |  -  | 
| Delta |  -  |  -  |  -  |  -  | 
| Flink |  -  |  -  |  -  |  -  | 
| Ganglia | 3.7.2 | 3.6.0 |  -  |  -  | 
| HBase |  -  |  -  |  -  |  -  | 
| HCatalog |  -  |  -  |  -  |  -  | 
| Hadoop | 2.7.1-amzn-0 | 2.6.0-amzn-2 | 2.6.0-amzn-1 | 2.6.0-amzn-0 | 
| Hive | 1.0.0-amzn-2 | 1.0.0-amzn-1 | 1.0.0-amzn-1 | 1.0.0-amzn-0 | 
| Hudi |  -  |  -  |  -  |  -  | 
| Hue | 3.7.1-amzn-5 | 3.7.1-amzn-5 | 3.7.1-amzn-4 |  -  | 
| Iceberg |  -  |  -  |  -  |  -  | 
| JupyterEnterpriseGateway |  -  |  -  |  -  |  -  | 
| JupyterHub |  -  |  -  |  -  |  -  | 
| Livy |  -  |  -  |  -  |  -  | 
| MXNet |  -  |  -  |  -  |  -  | 
| Mahout | 0.11.0 | 0.11.0 | 0.11.0 | 0.10.0 | 
| Oozie |  -  |  -  |  -  |  -  | 
| Oozie-Sandbox | 4.2.0 | 4.2.0 | 4.0.1 |  -  | 
| Phoenix |  -  |  -  |  -  |  -  | 
| Pig | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 
| Presto |  -  |  -  |  -  |  -  | 
| Presto-Sandbox | 0.130 | 0.125 | 0.119 |  -  | 
| Spark | 1.6.0 | 1.5.2 | 1.5.0 | 1.4.1 | 
| Sqoop |  -  |  -  |  -  |  -  | 
| Sqoop-Sandbox |  -  |  -  |  -  |  -  | 
| TensorFlow |  -  |  -  |  -  |  -  | 
| Tez |  -  |  -  |  -  |  -  | 
| Trino (PrestoSQL) |  -  |  -  |  -  |  -  | 
| Zeppelin |  -  |  -  |  -  |  -  | 
| Zeppelin-Sandbox | 0.5.5-incubating-amzn-1 | 0.5.5-incubating-amzn-0 | 0.6.0-incubating-SNAPSHOT |  -  | 
| ZooKeeper |  -  |  -  |  -  |  -  | 
| ZooKeeper-Sandbox |  -  |  -  |  -  |  -  | 

## 4.0.0 릴리스 정보
<a name="emr-400-relnotes"></a>

## 4.0.0 구성 요소 버전
<a name="emr-400-components"></a>

이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 `emr` 또는 `aws`로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.

Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 `CommunityVersion-amzn-EmrVersion` 양식의 버전 레이블이 있습니다. `EmrVersion`은 0에서 시작합니다. 예를 들어, 버전 2.2의 `myapp-component`라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 `2.2-amzn-2`로 나열됩니다.


| 구성 요소 | 버전 | 설명 | 
| --- | --- | --- | 
| emr-ddb | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 | 
| emr-goodies | 2.0.0 | 편리한 하둡 에코시스템용 추가 라이브러리 | 
| emr-kinesis | 3.0.0 | 하둡 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. | 
| emr-s3-dist-cp | 2.0.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. | 
| emrfs | 2.0.0 | 하둡 에코시스템 애플리케이션용 Amazon S3 커넥터. | 
| hadoop-client | 2.6.0-amzn-0 | 'hdfs', 'hadoop', 'yarn' 등과 같은 하둡 명령줄 클라이언트 | 
| hadoop-hdfs-datanode | 2.6.0-amzn-0 | 블록을 저장하는 HDFS 노드 수준 서비스 | 
| hadoop-hdfs-namenode | 2.6.0-amzn-0 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 | 
| hadoop-httpfs-server | 2.6.0-amzn-0 | HDFS 작업에 대한 HTTP 엔드포인트 | 
| hadoop-mapred | 2.6.0-amzn-0 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 | 
| hadoop-yarn-nodemanager | 2.6.0-amzn-0 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 | 
| hadoop-yarn-resourcemanager | 2.6.0-amzn-0 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 | 
| hive-client | 1.0.0-amzn-0 | Hive 명령줄 클라이언트 | 
| hive-metastore-server | 1.0.0-amzn-0 | 하둡 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 | 
| hive-server | 1.0.0-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 | 
| mahout-client | 0.10.0 | 머신 러닝을 위한 라이브러리. | 
| mysql-server | 5.5 | MySQL 데이터베이스 서버. | 
| pig-client | 0.14.0-amzn-0 | Pig 명령줄 클라이언트. | 
| spark-client | 1.4.1 | Spark 명령줄 클라이언트. | 
| spark-history-server | 1.4.1 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. | 
| spark-on-yarn | 1.4.1 | YARN용 인 메모리 실행 엔진. | 
| spark-yarn-slave | 1.4.1 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. | 

## 4.0.0 구성 분류
<a name="emr-400-class"></a>

구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 `hive-site.xml`과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오.


**emr-4.0.0 분류**  

| 분류 | 설명 | 
| --- | --- | 
| capacity-scheduler | Hadoop capacity-scheduler.xml 파일에서 값을 변경합니다. | 
| core-site | Hadoop core-site.xml 파일에서 값을 변경합니다. | 
| emrfs-site | EMRFS 설정을 변경합니다. | 
| hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경에서 값을 변경합니다. | 
| hadoop-log4j | Hadoop log4j.properties 파일에서 값을 변경합니다. | 
| hdfs-site | HDFS hdfs-site.xml에서 값을 변경합니다. | 
| hive-env | Hive 환경에서 값을 변경합니다. | 
| hive-exec-log4j | Hive hive-exec-log4j.properties 파일에서 값을 변경합니다. | 
| hive-log4j | Hive hive-log4j.properties 파일에서 값을 변경합니다. | 
| hive-site | Hive hive-site.xml 파일에서 값을 변경합니다. | 
| httpfs-env | HTTPFS 환경에서 값을 변경합니다. | 
| httpfs-site | Hadoop httpfs-site.xml 파일에서 값을 변경합니다. | 
| mapred-env | MapReduce 애플리케이션 환경에서 값을 변경합니다. | 
| mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일에서 값을 변경합니다. | 
| pig-properties | Pig pig.properties 파일에서 값을 변경합니다. | 
| pig-log4j | Pig log4j.properties 파일에서 값을 변경합니다. | 
| spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. | 
| spark-defaults | Spark spark-defaults.conf 파일에서 값을 변경합니다. | 
| spark-env | Spark 환경에서 값을 변경합니다. | 
| spark-log4j | Spark log4j.properties 파일에서 값을 변경합니다. | 
| yarn-env | YARN 환경에서 값을 변경합니다. | 
| yarn-site | YARN yarn-site.xml 파일에서 값을 변경합니다. | 

# Amazon EMR 2.x 및 3.x AMI 버전
<a name="emr-release-3x"></a>

**참고**  
AWS 는 모든 AWS API 엔드포인트에 대한 TLS 구성을 TLS 1.2의 최소 버전으로 업데이트하고 있습니다. Amazon EMR 릴리스 3.10 이하 버전은 TLS 1.0 및 1.1 연결만 지원합니다. 2023년 12월 4일 이후 Amazon EMR 3.10 이하에서는 클러스터를 생성할 수 없습니다.  
Amazon EMR 3.10 이하를 사용하는 경우 워크로드를 즉시 테스트하고 최신 Amazon EMR 릴리스로 마이그레이션하는 것이 좋습니다. 자세한 내용은 [AWS 보안 블로그](https://aws.amazon.com/blogs//security/tls-1-2-required-for-aws-endpoints/)를 참조하세요.

*AMI 버전*이라고 하는 Amazon EMR 2.x 및 3.x 릴리스는 호환성 때문에 해당 릴리스가 필요한 기존 솔루션에서 사용할 수 있습니다. 이 릴리스 버전으로 새 클러스터나 새 솔루션을 생성하는 것은 권장되지 않습니다. 여기에는 새 릴리스의 기능이 없으며 오래된 애플리케이션 패키지가 포함됩니다.

최신 Amazon EMR 릴리스 버전을 사용하여 솔루션을 구축하는 것이 좋습니다.

2.x 및 3.x 시리즈 릴리스 버전과 최신 Amazon EMR 릴리스 버전 간의 차이는 큽니다. 클러스터의 생성 및 구성 방법부터 클러스터의 애플리케이션 디렉터리 구조 및 포트에 이르기까지 매우 광범위합니다.

이 섹션에서는 Amazon EMR에 대한 가장 두드러진 차이와 특정 애플리케이션 구성 및 관리의 차이를 다룹니다. 이 내용은 포괄적이지 않습니다. 2.x 또는 3.x 시리즈에서 클러스터를 생성하여 사용하면 이 섹션에서 설명하지 않은 차이가 생길 수 있습니다.

**Topics**
+ [Amazon EMR의 이전 AMI 버전을 포함하는 클러스터 생성](emr-3x-create.md)
+ [Amazon EMR의 이전 AMI 버전을 사용하여 애플리케이션 설치](emr-3x-install-apps.md)
+ [Amazon EMR의 이전 AMI 버전을 사용하여 클러스터 및 애플리케이션 구성 사용자 지정](emr-3x-customizeappconfig.md)
+ [Amazon EMR의 이전 AMI 버전에 고유한 Hive 애플리케이션](emr-3x-hive.md)
+ [Amazon EMR의 이전 AMI 버전에 고유한 HBase 애플리케이션](emr-3x-hbase.md)
+ [Amazon EMR의 이전 AMI 버전에 고유한 Pig 애플리케이션](emr-3x-pig.md)
+ [Amazon EMR의 이전 AMI 버전에 고유한 Spark 애플리케이션](emr-3x-spark.md)
+ [Amazon EMR의 이전 AMI 버전에서 S3DistCp 유틸리티 차이](emr-3x-s3distcp.md)

# Amazon EMR의 이전 AMI 버전을 포함하는 클러스터 생성
<a name="emr-3x-create"></a>

Amazon EMR 2.x 및 3.x 릴리스는 AMI 버전으로 참조됩니다. Amazon EMR 릴리스 4.0.0 이상에서 릴리스 레이블(예: `emr-5.11.0`)을 사용하여 릴리스 버전별로 릴리스를 참조합니다. 이 변경 사항은 AWS CLI 또는 프로그래밍 방식으로 클러스터를 생성할 때 가장 명확하게 나타납니다.

 AWS CLI 를 사용하여 AMI 릴리스 버전을 사용하여 클러스터를 생성하는 경우 `--ami-version` 옵션을 사용합니다. 예: `--ami-version 3.11.0`. Amazon EMR 4.0.0 이상에 도입된 여러 옵션, 기능 및 애플리케이션은 `--ami-version`을 지정할 때 사용할 수 없습니다. 자세한 내용은 *AWS CLI 명령 참조*에서 [create-cluster](https://docs.aws.amazon.com/cli/latest/reference/emr/create-cluster.html)를 참조하세요.

다음 예제 AWS CLI 명령은 AMI 버전을 사용하여 클러스터를 시작합니다.

**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr create-cluster --name "Test cluster" --ami-version 3.11.0 \
--applications Name=Hue Name=Hive Name=Pig \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-groups InstanceGroupType=MASTER,InstanceCount=1,\
InstanceType=m3.xlarge InstanceGroupType=CORE,InstanceCount=2,\
InstanceType=m3.xlarge --bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hadoop,\
Name="Configuring infinite JVM reuse",Args=["-m","mapred.job.reuse.jvm.num.tasks=-1"]
```

프로그래밍 방식에서는 모든 Amazon EMR 릴리스 버전이 EMR API에서 `RunJobFlowRequest` 작업을 사용하여 클러스터를 생성합니다. 다음은 AMI 릴리스 버전 3.11.0을 사용하여 클러스터를 생성하는 예제 Java 코드입니다.

```
RunJobFlowRequest request = new RunJobFlowRequest()
			.withName("AmiVersion Cluster")
			.withAmiVersion("3.11.0")
			.withInstances(new JobFlowInstancesConfig()
				.withEc2KeyName("myKeyPair")
				.withInstanceCount(1)
				.withKeepJobFlowAliveWhenNoSteps(true)
				.withMasterInstanceType("m3.xlarge")
				.withSlaveInstanceType("m3.xlarge");
```

다음 `RunJobFlowRequest` 호출은 릴리스 레이블을 대신 사용합니다.

```
RunJobFlowRequest request = new RunJobFlowRequest()
			.withName("ReleaseLabel Cluster")
			.withReleaseLabel("emr-7.12.0")
			.withInstances(new JobFlowInstancesConfig()
				.withEc2KeyName("myKeyPair")
				.withInstanceCount(1)
				.withKeepJobFlowAliveWhenNoSteps(true)
				.withMasterInstanceType("m3.xlarge")
				.withSlaveInstanceType("m3.xlarge");
```

## 클러스터 크기 구성
<a name="emr-3x-cluster-size"></a>

클러스터가 실행되면 Hadoop에서 데이터를 처리하는 데 필요한 매퍼 및 reducer 작업 수를 결정합니다. 클러스터의 규모가 클수록 리소스 사용과 처리 시간 단축을 위해 더 많은 작업을 수행해야 합니다. 일반적으로 EMR 클러스터는 전체 클러스터에서 동일한 크기를 유지합니다. 클러스터를 작성할 때 작업 수를 설정합니다. 실행 중인 클러스터의 크기를 조정할 때 클러스터 실행 중에 처리 방식을 변경할 수 있습니다. 따라서 고정된 수의 작업을 사용하는 대신 클러스터 수명 기간 동안 작업 수를 변경할 수 있습니다. 이상적인 작업 수를 설정하는 데 도움이 되는 두 가지 구성 옵션이 있습니다.
+ `mapred.map.tasksperslot`
+ `mapred.reduce.tasksperslot`

`mapred-conf.xml` 파일에서 두 옵션을 모두 설정할 수 있습니다. 작업을 클러스터에 제출하면 작업 클라이언트는 클러스터 전체에서 사용 가능한 현재 맵 및 reduce 슬롯의 총 수를 확인합니다. 작업 클라이언트는 다음 수식을 사용하여 작업 수를 설정합니다.
+ `mapred.map.tasks` =` mapred.map.tasksperslot` \$1 클러스터의 맵 슬롯
+ `mapred.reduce.tasks` =`mapred.reduce.tasksperslot` \$1 클러스터의 reduce 슬롯

작업 클라이언트는 작업 수가 구성되지 않은 경우 `tasksperslot` 파라미터만 읽습니다. 부트스트랩 작업을 통해 모든 클러스터에 대해 또는 구성을 변경하는 단계를 추가하여 작업마다 개별적으로 언제든지 작업 수를 재정의할 수 있습니다.

Amazon EMR은 태스크 노드 장애를 견디며 태스크 노드를 사용할 수 없게 되더라도 클러스터 실행을 계속합니다. Amazon EMR은 실패한 태스크 노드를 대체하기 위해 추가 태스크 노드를 자동으로 프로비저닝합니다.

클러스터 단계마다 작업 노드의 수가 다를 수 있습니다. 실행 중인 클러스터에 단계를 추가하여 작업 노드의 수를 수정할 수도 있습니다. 모든 단계는 기본적으로 순차적으로 실행되므로 어떤 단계에 대해서도 실행 중인 작업 노드 수를 지정할 수 있습니다.

# Amazon EMR의 이전 AMI 버전을 사용하여 애플리케이션 설치
<a name="emr-3x-install-apps"></a>

AMI 버전을 사용하는 경우 [RunJobflow](https://docs.aws.amazon.com/ElasticMapReduce/latest/API/API_RunJobFlow.html) 작업의 `NewSupportedProducts` 파라미터 사용, 부트스트랩 작업 사용, [Step](https://docs.aws.amazon.com/ElasticMapReduce/latest/API/API_Step.html) 작업 사용 등 다양한 방법으로 애플리케이션이 설치됩니다.

# Amazon EMR의 이전 AMI 버전을 사용하여 클러스터 및 애플리케이션 구성 사용자 지정
<a name="emr-3x-customizeappconfig"></a>

Amazon EMR 릴리스 버전 4.0.0에서는 구성 분류를 사용하여 애플리케이션을 구성하는 간단한 방법이 도입되었습니다. 자세한 내용은 [애플리케이션 구성](emr-configure-apps.md) 단원을 참조하십시오. AMI 버전을 사용할 때 전달하는 인수와 함께 부트스트랩 작업을 사용하여 애플리케이션을 구성합니다. 예를 들어, `configure-hadoop` 및 `configure-daemons` 부트스트랩 작업은 Hadoop 및 Yarn별 환경 속성(예: `--namenode-heap-size`)을 설정합니다. 최신 버전에서는 이러한 사항이 `hadoop-env` 및 `yarn-env` 구성 분류를 통해 구성됩니다. 일반적인 구성을 수행하는 부트스트랩 작업은 [Github의 emr-bootstrap-actions 리포지토리](https://github.com/awslabs/emr-bootstrap-actions)를 참조하세요.

다음 테이블에서는 부트스트랩 작업을 최신 Amazon EMR 릴리스 버전에 있는 구성 분류에 매핑합니다.


**Hadoop**  

| 영향을 받는 애플리케이션 파일 이름 | AMI 버전 부트스트랩 작업 | 구성 분류 | 
| --- | --- | --- | 
| core-site.xml  | configure-hadoop -c  | core-site | 
| log4j.properties  | configure-hadoop -l  | hadoop-log4j | 
| hdfs-site.xml  | configure-hadoop -s  | hdfs-site  | 
| 해당 사항 없음 | 해당 사항 없음 | hdfs-encryption-zones | 
| mapred-site.xml  | configure-hadoop -m  | mapred-site | 
| yarn-site.xml  | configure-hadoop -y  | yarn-site | 
| httpfs-site.xml  | configure-hadoop -t  | httpfs-site | 
| capacity-scheduler.xml  | configure-hadoop -z  | capacity-scheduler | 
| yarn-env.sh  | configure-daemons --resourcemanager-opts | yarn-env | 


**Hive**  

| 영향을 받는 애플리케이션 파일 이름 | AMI 버전 부트스트랩 작업 | 구성 분류 | 
| --- | --- | --- | 
| hive-env.sh | 해당 사항 없음 | hive-env | 
| hive-site.xml | hive-script --install-hive-site \$1\$1MY\$1HIVE\$1SITE\$1FILE\$1 | hive-site | 
| hive-exec-log4j.properties | 해당 사항 없음 | hive-exec-log4j | 
| hive-log4j.properties | 해당 사항 없음 | hive-log4j | 


**EMRFS**  

| 영향을 받는 애플리케이션 파일 이름 | AMI 버전 부트스트랩 작업 | 구성 분류 | 
| --- | --- | --- | 
| emrfs-site.xml | configure-hadoop -e | emrfs-site | 
| 해당 사항 없음 | s3get -s s3://custom-provider.jar -d /usr/share/aws/emr/auxlib/ | emrfs-site(새로운 설정 fs.s3.cse.encryptionMaterialsProvider.uri 지원) | 

모든 분류 목록을 보려면 [애플리케이션 구성](emr-configure-apps.md) 섹션을 참조하세요.

## 애플리케이션 환경 변수
<a name="emr-3x-appenv"></a>

AMI 버전을 사용할 때 Hadoop 환경을 구성하기 위해 `hadoop-user-env.sh` 스크립트가 `configure-daemons` 부트스트랩 작업과 함께 사용됩니다. 이 스크립트에는 다음 작업이 포함되어 있습니다.

```
#!/bin/bash 
export HADOOP_USER_CLASSPATH_FIRST=true; 
echo "HADOOP_CLASSPATH=/path/to/my.jar" >> /home/hadoop/conf/hadoop-user-env.sh
```

Amazon EMR 릴리스 4.x에서는 다음 예제에 표시된 대로 `hadoop-env` 구성 분류를 사용하여 동일하게 수행할 수 있습니다.

```
[ 
      { 
         "Classification":"hadoop-env",
         "Properties":{ 

         },
         "Configurations":[ 
            { 
               "Classification":"export",
               "Properties":{ 
                  "HADOOP_USER_CLASSPATH_FIRST":"true",
                  "HADOOP_CLASSPATH":"/path/to/my.jar"
               }
            }
         ]
      }
   ]
```

또 다른 예로, `configure-daemons`를 사용하고 `--namenode-heap-size=2048` 및 `--namenode-opts=-XX:GCTimeRatio=19`를 전달하는 것은 다음 구성 분류와 동일합니다.

```
[ 
      { 
         "Classification":"hadoop-env",
         "Properties":{ 

         },
         "Configurations":[ 
            { 
               "Classification":"export",
               "Properties":{ 
                  "HADOOP_DATANODE_HEAPSIZE":  "2048",
           	"HADOOP_NAMENODE_OPTS":  "-XX:GCTimeRatio=19"
               }
            }
         ]
      }
   ]
```

다른 애플리케이션 환경 변수는 더 이상 `/home/hadoop/.bashrc`에 정의되지 않습니다. 대신 `/etc/default`과 같이 구성 요소별 또는 애플리케이션별 `/etc/default/hadoop` 파일에서 주로 설정됩니다. 또한 애플리케이션 RPM에서 설치한 `/usr/bin/`의 래퍼 스크립트는 실제 빈 스크립트를 포함하기 전에 추가 환경 변수를 설정할 수 있습니다.

## 서비스 포트
<a name="emr-3x-serviceports"></a>

AMI 버전을 사용할 때 일부 서비스에서는 사용자 지정 포트를 사용합니다.


**포트 설정의 변경**  

| 설정 | AMI 버전 3.x | 오픈 소스 기본값 | 
| --- | --- | --- | 
| fs.default.name | hdfs://emrDeterminedIP:9000 | 기본값(hdfs://emrDeterminedIP:8020)  | 
| dfs.datanode.address | 0.0.0.0:9200 | 기본값(0.0.0.0:50010)  | 
| dfs.datanode.http.address | 0.0.0.0:9102 | 기본값(0.0.0.0:50075)  | 
| dfs.datanode.https.address | 0.0.0.0:9402 | 기본값(0.0.0.0:50475) | 
| dfs.datanode.ipc.address | 0.0.0.0:9201 | 기본값(0.0.0.0:50020) | 
| dfs.http.address | 0.0.0.0:9101 | 기본값(0.0.0.0:50070)  | 
| dfs.https.address | 0.0.0.0:9202 | 기본값(0.0.0.0:50470)  | 
| dfs.secondary.http.address | 0.0.0.0:9104 | 기본값(0.0.0.0:50090) | 
| yarn.nodemanager.address | 0.0.0.0:9103 | 기본값(\$1\$1yarn.nodemanager.hostname\$1:0)  | 
| yarn.nodemanager.localizer.address  | 0.0.0.0:9033 | 기본값(\$1\$1yarn.nodemanager.hostname\$1:8040) | 
| yarn.nodemanager.webapp.address | 0.0.0.0:9035 | 기본값(\$1\$1yarn.nodemanager.hostname\$1:8042) | 
| yarn.resourcemanager.address | emrDeterminedIP:9022 | 기본값(\$1\$1yarn.resourcemanager.hostname\$1:8032) | 
| yarn.resourcemanager.admin.address | emrDeterminedIP:9025 | 기본값(\$1\$1yarn.resourcemanager.hostname\$1:8033) | 
| yarn.resourcemanager.resource-tracker.address | emrDeterminedIP:9023 | 기본값(\$1\$1yarn.resourcemanager.hostname\$1:8031) | 
| yarn.resourcemanager.scheduler.address | emrDeterminedIP:9024 | 기본값(\$1\$1yarn.resourcemanager.hostname\$1:8030) | 
| yarn.resourcemanager.webapp.address | 0.0.0.0:9026  | 기본값(\$1\$1yarn.resourcemanager.hostname\$1:8088) | 
| yarn.web-proxy.address | emrDeterminedIP:9046  | 기본값(값 지정 안 함)  | 
| yarn.resourcemanager.hostname | 0.0.0.0(기본값)  | emrDeterminedIP | 

**참고**  
*emrDeterminedIP*는 Amazon EMR에서 생성되는 IP 주소입니다.

## Users
<a name="emr-3x-users"></a>

AMI 버전을 사용할 때 `hadoop` 사용자는 모든 프로세스를 실행하고 모든 파일을 소유합니다. Amazon EMR 릴리스 버전 4.0.0 이상에서는 사용자가 애플리케이션 및 구성 요소 수준에 존재합니다.

## 설치 시퀀스, 설치된 아티팩트 및 로그 파일 위치
<a name="emr-3x-directories"></a>

AMI 버전을 사용할 때 애플리케이션 아티팩트 및 구성 요소 디렉터리는 `/home/hadoop/application` 디렉터리에 설치됩니다. 예를 들어, Hive를 설치한 경우 디렉터리는 `/home/hadoop/hive`입니다. Amazon EMR 릴리스 4.0.0 이상에서는 애플리케이션 아티팩트가 `/usr/lib/application` 디렉터리에 설치됩니다. AMI 버전을 사용할 때 로그 파일은 다양한 위치에 저장됩니다. 아래 표에는 위치가 나열되어 있습니다.


**Amazon S3에서 로그 위치의 변경**  

| 대몬(daemon) 또는 애플리케이션 | 디렉터리 위치 | 
| --- | --- | 
| 인스턴스 상태 | node/instance-id/instance-state/ | 
| hadoop-hdfs-namenode | daemons/instance-id/hadoop-hadoop-namenode.log | 
| hadoop-hdfs-datanode | daemons/instance-id/hadoop-hadoop-datanode.log | 
| hadoop-yarn(ResourceManager) | daemons/instance-id/yarn-hadoop-resourcemanager | 
| Hadoop yarn(프록시 서버) | daemons/instance-id/yarn-hadoop-proxyserver | 
| mapred-historyserver | daemons/instance-id/ | 
| httpfs | daemons/instance-id/httpfs.log | 
| hive-server | node/instance-id/hive-server/hive-server.log | 
| hive-metastore | node/instance-id/apps/hive.log | 
| Hive CLI | node/instance-id/apps/hive.log | 
| YARN 애플리케이션 사용자 로그 및 컨테이너 로그 | task-attempts/ | 
| Mahout | 해당 사항 없음 | 
| Pig | 해당 사항 없음 | 
| spark-historyserver | 해당 사항 없음 | 
| mapreduce 작업 기록 파일 | jobs/ | 

## Command Runner
<a name="emr-differences-commandrunner"></a>

AMI 버전을 사용할 때 `/home/hadoop/contrib/streaming/hadoop-streaming.jar` 등의 여러 스크립트 또는 프로그램이 셸 로그인 경로 환경에 배치되지 않으므로, command-runner.jar 또는 script-runner.jar 등 jar 파일을 사용하여 스크립트를 실행할 경우 전체 경로를 지정해야 합니다. `command-runner.jar`은 AMI에 있으므로 `script-runner.jar`의 경우처럼 전체 URI를 알 필요가 없습니다.

## 복제 인수
<a name="emr-3x-replication"></a>

복제 인수를 사용하면 Hadoop JVM을 시작할 시기를 구성할 수 있습니다. 모든 작업에 대해 새 Hadoop JVM을 시작하여 작업을 보다 효과적으로 격리하거나, 작업 간에 JVM을 공유하여 프레임워크 오버헤드를 낮출 수 있습니다. 많은 작은 파일을 처리하려는 경우에는 JVM을 여러 번 재사용하여 시작 비용을 분할 상환하는 것이 합리적입니다. 하지만 각 작업마다 오랜 시간이 걸리거나 대량의 데이터를 처리하는 경우에는 모든 메모리가 후속 작업을 위해 해제될 수 있도록 JVM을 재사용하지 않도록 선택할 수 있습니다. AMI 버전을 사용할 때 `configure-hadoop` 부트스트랩 작업을 사용하여 복제 인수를 `mapred.job.reuse.jvm.num.tasks` 속성으로 설정하도록 사용자 지정할 수 있습니다.

다음은 무제한 JVM 재사용을 위해 JVM 재사용 인수를 설정한 예입니다.

**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr create-cluster --name "Test cluster" --ami-version 3.11.0 \
--applications Name=Hue Name=Hive Name=Pig \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-groups InstanceGroupType=MASTER,InstanceCount=1,InstanceType=m3.xlarge \
InstanceGroupType=CORE,InstanceCount=2,InstanceType=m3.xlarge \
--bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hadoop,\
Name="Configuring infinite JVM reuse",Args=["-m","mapred.job.reuse.jvm.num.tasks=-1"]
```

# Amazon EMR의 이전 AMI 버전에 고유한 Hive 애플리케이션
<a name="emr-3x-hive"></a>

## 로그 파일
<a name="emr-3x-hive-log-files"></a>

Amazon EMR AMI 버전 2.x 및 3.x를 사용하면 Hive 로그가 `/mnt/var/log/apps/`에 저장됩니다. Hive의 동시 버전을 지원하려면 다음 표와 같이 실행하는 Hive 버전에 따라 로그 파일 이름이 결정됩니다.


| Hive 버전 | 로그 파일 이름 | 
| --- | --- | 
| 0.13.1 | hive.log  이 버전부터 Amazon EMR은 버전 관리 미사용 파일 이름(`hive.log`)을 사용합니다. 마이너 버전은 메이저 버전과 동일한 로그 위치를 공유합니다.  | 
| 0.11.0 | hive\$10110.log   Hive 0.11.0의 마이너 버전(예: 0.11.0.1)은 Hive 0.11.0과 동일한 로그 파일 위치를 공유합니다.  | 
| 0.8.1 | hive\$1081.log   Hive 0.8.1의 마이너 버전(예: 0.8.1.1)은 Hive 0.8.1과 동일한 로그 파일 위치를 공유합니다.  | 
| 0.7.1 | hive\$107\$11.log   Hive 0.7.1의 마이너 버전(예: Hive 0.7.1.3 및 Hive 0.7.1.4)은 Hive 0.7.1과 동일한 로그 파일 위치를 공유합니다.   | 
| 0.7 | hive\$107.log | 
| 0.5 | hive\$105.log | 
| 0.4 | hive.log | 

## 분할 입력 기능
<a name="emr-3x-hive-split-input"></a>

0.13.1 이전의 Hive 버전(3.11.0 이전의 Amazon EMR AMI 버전)을 사용하여 분할 입력 기능을 구현하려면 다음을 사용합니다.

```
hive> set hive.input.format=org.apache.hadoop.hive.ql.io.HiveCombineSplitsInputFormat;
hive> set mapred.min.split.size=100000000;
```

이 기능은 Hive 0.13.1에서 더 이상 사용되지 않습니다. Amazon EMR AMI 버전 3.11.0에서 동일한 분할 입력 형식 기능을 사용하려면 다음을 사용합니다.

```
set hive.hadoop.supports.splittable.combineinputformat=true;
```

## Thrift 서비스 포트
<a name="emr-3x-hive-thrift-service"></a>

 Thrift는 나중에 분석할 수 있도록 데이터 구조를 유지하는 데 사용되는 압축된 이진 직렬화 형식을 정의하는 RPC 프레임워크입니다. 일반적으로 Hive는 다음 포트에서 작동하도록 서버를 구성합니다.


| Hive 버전 | 포트 번호 | 
| --- | --- | 
| Hive 0.13.1 | 10000 | 
| Hive 0.11.0 | 10004 | 
| Hive 0.8.1 | 10003 | 
| Hive 0.7.1 | 10002 | 
| Hive 0.7 | 10001 | 
| Hive 0.5 | 10000 | 

 Thrift 서비스에 대한 자세한 내용은 를 참조하세요[http://wiki.apache.org/thrift/](http://wiki.apache.org/thrift/) 

## Hive를 사용하여 파티션 복구
<a name="emr-3x-hive-recover-partition"></a>

Amazon EMR에는 Amazon S3에 있는 테이블 데이터에서 테이블의 파티션을 복구하는 Hive 쿼리 언어의 문이 포함되어 있습니다. 다음 예제는 이 작업을 보여 줍니다.

```
CREATE EXTERNAL TABLE (json string) raw_impression 
PARTITIONED BY (dt string) 
LOCATION 's3://elastic-mapreduce/samples/hive-ads/tables/impressions';
ALTER TABLE logs RECOVER PARTITIONS;
```

파티션 디렉터리 및 데이터가 테이블 정의에 지정된 위치에 있어야 하며 Hive 규칙에 따라 이름이 지정되어야 합니다. 예: `dt=2009-01-01`.

**참고**  
Hive 0.13.1 이후에는 이 기능이 `msck repair table`을 사용하여 기본적으로 지원되므로 `recover partitions`가 지원되지 않습니다. 자세한 내용은 [https://cwiki.apache.org/confluence/display/Hive/LanguageManual\$1DDL](https://cwiki.apache.org/confluence/display/Hive/LanguageManual+DDL)을 참조하세요.

## 스크립트에 Hive 변수 전달
<a name="emr-3x-hive-pass-variable"></a>

를 사용하여 Hive 단계에 변수를 전달하려면 다음 명령을 AWS CLI입력하고 *myKey*를 EC2 키 페어의 이름으로 바꾸고 *amzn-s3-demo-bucket*을 버킷 이름으로 바꿉니다. 이 예에서 `SAMPLE`은 앞에 `-d` 스위치가 붙는 변수 값입니다. 이 변수는 Hive 스크립트에서 `${SAMPLE}`로 정의됩니다.

**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr create-cluster --name "Test cluster" --ami-version 3.9 \
--applications Name=Hue Name=Hive Name=Pig \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-type m3.xlarge --instance-count 3 \
--steps Type=Hive,Name="Hive Program",ActionOnFailure=CONTINUE,\
Args=[-f,s3://elasticmapreduce/samples/hive-ads/libs/response-time-stats.q,-d,\
INPUT=s3://elasticmapreduce/samples/hive-ads/tables,-d,OUTPUT=s3://amzn-s3-demo-bucket/hive-ads/output/,\
-d,SAMPLE=s3://elasticmapreduce/samples/hive-ads/]
```

## 외부 메타스토어 위치 지정
<a name="emr-3x-hive-external-metastore"></a>

다음 절차에서는 Hive 메타스토어 위치에 대한 기본 구성 값을 재정의하고 재구성된 메타스토어 위치를 사용하여 클러스터를 시작하는 방법을 보여 줍니다.

**EMR 클러스터 외부에 위치한 메타스토어를 생성하려면**

1. Amazon RDS를 사용하여 MySQL 또는 Aurora 데이터베이스를 생성합니다.

   Amazon RDS 데이터베이스 생성 방법에 대한 자세한 내용은 [Amazon RDS 시작하기](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_GettingStarted.html)를 참조하세요.

1. 데이터베이스와 **ElasticMapReduce-Master** 보안 그룹 간의 JDBC 연결을 허용하도록 보안 그룹을 수정합니다.

   액세스를 위해 보안 그룹을 수정하는 방법에 대한 자세한 내용은 *Amazon RDS 사용 설명서*에서 [Amazon RDS 보안 그룹](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Overview.RDSSecurityGroups.html)을 참조하세요.

1. `hive-site.xml`에서 JDBC 구성 값을 설정합니다.

   1. 다음 사항이 포함된 `hive-site.xml` 구성 파일을 생성합니다.

      ```
      <configuration>
        <property>
          <name>javax.jdo.option.ConnectionURL</name>
          <value>jdbc:mariadb://hostname:3306/hive?createDatabaseIfNotExist=true</value>
          <description>JDBC connect string for a JDBC metastore</description>
        </property>
        <property>
          <name>javax.jdo.option.ConnectionUserName</name>
          <value>hive</value>
          <description>Username to use against metastore database</description>
        </property>
        <property>
          <name>javax.jdo.option.ConnectionPassword</name>
          <value>password</value>
          <description>Password to use against metastore database</description>
        </property>
      </configuration>
      ```

      *hostname*은 데이터베이스를 실행하는 Amazon RDS 인스턴스의 DNS 주소입니다. *username* 및 *password*는 데이터베이스의 보안 인증입니다. MySQL 및 Aurora 데이터베이스 인스턴스에 연결하는 방법에 대한 자세한 내용은 *Amazon RDS 사용 설명서*에서 [MySQL 데이터베이스 엔진 기반 DB 인스턴스에 연결하기](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/USER_ConnectToInstance.html) 및 [Aurora DB 클러스터에 연결](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/Aurora.Connecting.html)을 참조하세요.

      JDBC 드라이버는 Amazon EMR에서 설치됩니다.
**참고**  
값 속성에는 공백이나 캐리지 리턴이 포함되어서는 안 됩니다. 속성은 모두 한 줄에 나타나야 합니다.

   1. `hive-site.xml` 파일을 Amazon S3 위의 한 위치로 이동합니다(예: `s3://amzn-s3-demo-bucket/hive-site.xml`).

1. 클러스터를 생성하고 사용자 지정된 `hive-site.xml` 파일의 Amazon S3 위치를 지정합니다.

   다음 예제 명령은이 작업을 수행하는 AWS CLI 명령을 보여줍니다.
**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

   ```
   aws emr create-cluster --name "Test cluster" --ami-version 3.10 \
   --applications Name=Hue Name=Hive Name=Pig \
   --use-default-roles --ec2-attributes KeyName=myKey \
   --instance-type m3.xlarge --instance-count 3 \
   --bootstrap-actions Name="Install Hive Site Configuration",\
   Path="s3://region.elasticmapreduce/libs/hive/hive-script",\
   Args=["--base-path","s3://elasticmapreduce/libs/hive","--install-hive-site",\
   "--hive-site=s3://amzn-s3-demo-bucket/hive-site.xml","--hive-versions","latest"]
   ```

## JDBC를 사용하여 Hive에 연결
<a name="emr-3x-hive-jdbc"></a>

JDBC를 통해 Hive에 연결하려면 JDBC 드라이버를 다운로드하고 SQL 클라이언트를 설치해야 합니다. 다음 예제에서는 SQL Workbench/J에서 JDBC를 사용하여 Hive에 연결하는 방법을 보여 줍니다.

**JDBC 드라이버를 다운로드하려면**

1. 액세스하려는 Hive 버전에 적합한 드라이버를 다운로드하고 압축을 풉니다. Hive 버전은 Amazon EMR 클러스터를 생성할 때 선택하는 AMI에 따라 다릅니다.
   + Hive 0.13.1 JDBC 드라이버: [https://amazon-odbc-jdbc-drivers.s3.amazonaws.com/public/AmazonHiveJDBC\$11.0.4.1004.zip](https://amazon-odbc-jdbc-drivers.s3.amazonaws.com/public/AmazonHiveJDBC_1.0.4.1004.zip)
   + Hive 0.11.0 JDBC 드라이버: [https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc/0.11.0](https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc/0.11.0)
   + Hive 0.8.1 JDBC 드라이버: [https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc/0.8.1](https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc/0.8.1)

1. 자세한 내용은 SQL Workbench/J 사용 설명서에서 [Installing and starting SQL Workbench/J](http://www.sql-workbench.net/manual/install.html)를 참조하세요.

1. 클러스터 마스터 노드에 대한 SSH 터널을 생성합니다. 연결용 포트는 Hive 버전에 따라 달라집니다. 예제 명령은 Linux `ssh` 사용자의 경우 아래 표에, Windows 사용자의 경우 PuTTY 명령에 제공됩니다.  
**Linux SSH 명령**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-3x-hive.html)  
**Windows PuTTY 터널 설정**    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-3x-hive.html)

1. JDBC 드라이버를 SQL Workbench에 추가합니다.

   1. **Select Connection Profile(연결 프로필 선택)** 대화 상자에서 **Manage Drivers(드라이버 관리)**를 선택합니다.

   1. **Create a new entry(새 항목 생성)**(빈 페이지) 아이콘을 선택합니다.

   1. **Name(이름)** 필드에 **Hive JDBC**을(를) 입력합니다.

   1. **라이브러리**에서 **Select the JAR file(s)(JAR 파일 선택)** 아이콘을 클릭합니다.

   1. 다음 표에 표시된 대로 JAR 파일을 선택합니다.  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-3x-hive.html)

   1. **Please select one driver(드라이버 하나를 선택하세요)** 대화 상자에서 다음 표에 해당하는 드라이버를 선택하고 **확인**을 클릭합니다.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-3x-hive.html)

1. **연결 프로파일 선택** 대화 상자로 돌아가서 **드라이버** 필드가 **Hive JDBC**로 설정되어 있는지 확인하고 다음 표에 따라 **URL** 필드에 JDBC 연결 문자열을 제공합니다.    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-3x-hive.html)

   클러스터가 AMI 버전 3.3.1 이상을 사용하는 경우 **연결 프로파일 선택** 대화 상자에서 **사용자 이름** 필드에 **hadoop**을 입력합니다.

# Amazon EMR의 이전 AMI 버전에 고유한 HBase 애플리케이션
<a name="emr-3x-hbase"></a>

## 지원되는 HBase 버전
<a name="emr-3x-hbase-versions"></a>


| HBase 버전 | AMI 버전 | AWS CLI 구성 파라미터 | HBase 버전 세부 정보 | 
| --- | --- | --- | --- | 
| [0.94.18](https://svn.apache.org/repos/asf/hbase/branches/0.94/CHANGES.txt) | 3.1.0 이상 |  `--ami-version 3.1` `--ami-version 3.2` `--ami-version 3.3` `--applications Name=HBase`  |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-3x-hbase.html)  | 
| [0.94.7](https://svn.apache.org/repos/asf/hbase/branches/0.94/CHANGES.txt) | 3.0-3.0.4 |  `--ami-version 3.0` `--applications Name=HBase`  | 
| [0.92](https://svn.apache.org/repos/asf/hbase/branches/0.92/CHANGES.txt) | 2.2 이상 |  `--ami-version 2.2 or later` `--applications Name=HBase`  | 

## HBase 클러스터 필수 조건
<a name="emr-3x-hbase-prerequisites"></a>

Amazon EMR AMI 버전 2.x 및 3.x를 사용하여 생성된 클러스터는 HBase에 대한 다음 요구 사항을 충족해야 합니다.
+  AWS CLI (선택 사항) - 명령줄을 사용하여 HBase와 상호 작용하려면 최신 버전의를 다운로드하여 설치합니다 AWS CLI. 자세한 내용은 *AWS Command Line Interface 사용자 가이드*에서 [AWS Command Line Interface설치](https://docs.aws.amazon.com/cli/latest/userguide/installing.html)를 참조하세요.
+ 최소 두 개의 인스턴스(선택 사항) - 클러스터의 프라이머리 노드는 HBase 마스터 서버와 Zookeeper를 실행하고, 태스크 노드는 HBase 리전 서버를 실행합니다. 최상의 성능을 위해 HBase 클러스터는 최소 두 개의 EC2 인스턴스에서 실행해야 하지만 평가를 위해 단일 노드에서 HBase를 실행할 수 있습니다.
+ 장기 실행 클러스터 - HBase는 장기 실행 클러스터에서만 실행됩니다. 기본적으로 CLI 및 Amazon EMR 콘솔은 장기 실행 클러스터를 생성합니다.
+ Amazon EC2 키 페어 세트(권장) - Secure Shell(SSH) 네트워크 프로토콜을 사용하여 프라이머리 노드에 연결하고 HBase 쉘 명령을 실행하려면 클러스터를 생성할 때 Amazon EC2 키 페어를 사용해야 합니다.
+ 올바른 AMI 및 Hadoop 버전 - HBase 클러스터는 현재 Hadoop 20.205 이상에서만 지원됩니다.
+ Ganglia(선택 사항) - HBase 성능 지표를 모니터링하려면 클러스터를 생성할 때 Ganglia를 설치합니다.
+ 로그용 Amazon S3 버킷(선택 사항) - HBase의 로그는 프라이머리 노드에서 사용할 수 있습니다. 이 로그를 Amazon S3에 복사하려면 클러스터를 생성할 때 로그 파일을 수신하는 S3 버킷을 지정합니다.

## HBase를 포함하는 클러스터 생성
<a name="emr-3x-hbase-launch"></a>

다음 테이블에는 콘솔에서 Amazon EMR AMI 릴리스 버전을 사용하여 HBase가 설치된 클러스터를 생성할 때 사용할 수 있는 옵션이 나열되어 있습니다.


| Field | 작업 | 
| --- | --- | 
| 백업에서 복원 | Amazon S3에 저장된 데이터를 포함하는 HBase 클러스터를 미리 로드할지 여부를 지정합니다. | 
| 백업 위치 | 복원할 백업이 있는 Amazon S3의 URI를 지정합니다. | 
| 백업 버전 | 선택적으로 백업 위치에서 사용할 백업의 버전 이름을 지정합니다. 이 필드를 비워두면 Amazon EMR에서 백업 위치의 최신 백업을 사용하여 새 HBase 클러스터를 채웁니다. | 
| 정기 백업 예약 | 자동 증분 백업을 예약할지 여부를 지정합니다. 첫 번째 백업은 이후의 증분 백업에 대한 기준을 생성하기 위한 전체 백업입니다. | 
| 일관적 백업 | 백업의 일관성 여부를 지정합니다. 일관된 백업은 초기 백업 단계, 즉 노드 간 동기화 중에 쓰기 작업을 일시 중지하는 백업입니다. 이렇게 일시 중지된 쓰기 작업은 대기열에 배치되고 동기화가 완료되면 다시 시작됩니다. | 
| Backup frequency(백업 빈도) | 예약된 백업 간의 일/시간/분입니다. | 
| 백업 위치 | 백업이 저장되는 Amazon S3 URI입니다. 올바른 차등 백업을 유지하려면 각 HBase 클러스터의 백업 위치가 달라야 합니다. | 
| 백업 시작 시간 | 첫 번째 백업의 발생 시점을 지정합니다. 클러스터가 실행되는 즉시 첫 번째 백업이 시작되도록 now로 설정하거나, [ISO 형식](http://www.w3.org/TR/NOTE-datetime)으로 날짜와 시간을 입력할 수 있습니다. 예를 들어, 2012-06-15T20:00Z는 시작 시간을 2012년 6월 15일 오후 8시(UTC)로 설정합니다. | 

다음 예제 AWS CLI 명령은 HBase 및 기타 애플리케이션을 사용하여 클러스터를 시작합니다.

**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
               --applications Name=Hue Name=Hive Name=Pig Name=HBase \
               --use-default-roles --ec2-attributes KeyName=myKey \
               --instance-type c1.xlarge --instance-count 3 --termination-protected
```

이전 절차와 같이 Hive 및 HBase 클러스터 간의 연결이 설정된 후 Hive에 외부 테이블을 만들어서 HBase 클러스터에 저장된 데이터에 액세스할 수 있습니다.

Hive 프롬프트에서 실행할 때 다음 예제는 `inputTable`이라는 HBase 테이블에 저장된 데이터를 참조하는 외부 테이블을 생성합니다. 그러면 Hive 명령문의 `inputTable`을 참조하여 HBase 클러스터에 저장된 데이터를 쿼리 및 수정할 수 있습니다.

**참고**  
다음 예제에서는 AMI 2.3.3의 **protobuf-java-2.4.0a.jar**을 사용하지만, 버전에 일치하도록 예제를 수정해야 합니다. 보유하고 있는 프로토콜 버퍼 JAR의 버전을 확인하려면 Hive 명령 프롬프트에서 `! ls /home/hadoop/lib;` 명령을 실행합니다.

```
add jar lib/emr-metrics-1.0.jar ;
               add jar lib/protobuf-java-2.4.0a.jar ;
               
               set hbase.zookeeper.quorum=ec2-107-21-163-157.compute-1.amazonaws.com ;
               
               create external table inputTable (key string, value string)
                    stored by 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'
                     with serdeproperties ("hbase.columns.mapping" = ":key,f1:col1")
                     tblproperties ("hbase.table.name" = "t1");
               
               select count(*) from inputTable ;
```

## HBase 구성 사용자 지정
<a name="emr-3x-hbase-customize"></a>

대부분의 애플리케이션에서는 기본 설정이 작동해야 하지만 HBase 구성 설정을 유연하게 수정할 수 있습니다. 이렇게 하려면 다음 두 개의 부트스트랩 작업 스크립트 중 하나를 실행합니다.
+ **configure-hbase-daemons** - master, regionserver, zookeeper daemons의 속성을 구성합니다. 이러한 속성에는 HBase 대몬이 시작될 때 JVM(Java Virtual Machine)에 전달할 힙 크기와 옵션이 포함됩니다. 부트스트랩 작업에서 이러한 속성을 인수로 설정합니다. 이 부트스트랩 작업은 HBase 클러스터의 /home/hadoop/conf/hbase-user-env.sh 구성 파일을 수정합니다.
+ **configure-hbase** - HBase 마스터가 바인딩해야 하는 포트, 클라이언트 CLI가 작업을 재시도해야 하는 최대 횟수 등 HBase 사이트별 설정을 구성합니다. 이를 부트스트랩 작업의 인수로 하나씩 설정하거나 Amazon S3에서 XML 구성 파일의 위치를 지정할 수 있습니다. 이 부트스트랩 작업은 HBase 클러스터의 /home/hadoop/conf/hbase-site.xml 구성 파일을 수정합니다.

**참고**  
이러한 스크립트는 다른 부트스트랩 작업과 마찬가지로 클러스터를 만들 때만 실행할 수 있습니다. 현재 실행중인 HBase 클러스터의 구성을 변경하는 데 사용할 수 없습니다.

**configure-hbase** 또는 **configure-hbase-daemons** 부트스트랩 작업을 실행할 경우 지정한 값이 기본값을 재정의합니다. 명시적으로 설정하지 않은 값은 기본값을 받습니다.

이러한 부트스트랩 작업으로 HBase를 구성하는 것은 Amazon EMR에서 부트스트랩 작업을 사용하여 Hadoop 설정 및 Hadoop 대몬(daemon) 속성을 구성하는 것과 유사합니다. 차이점은 HBase에는 프로세스별 메모리 옵션이 없다는 것입니다. 대신 `--daemon-opts` 인수를 사용하여 메모리 옵션을 설정합니다. 여기서 *daemon*은 구성할 대몬의 이름으로 바뀝니다.

### HBase 대몬(daemon) 구성
<a name="emr-3x-hbase-configure-daemons"></a>

 Amazon EMR은 HBase 대몬(daemon)의 구성을 변경하는 데 사용할 수 있는 부트스트랩 작업 `s3://region.elasticmapreduce/bootstrap-actions/configure-hbase-daemons`를 제공합니다. 여기서 *region*은 HBase 클러스터가 시작되는 리전입니다.

를 사용하여 HBase 데몬을 구성하려면 클러스터를 시작할 때 `configure-hbase-daemons` 부트스트랩 작업을 AWS CLI추가하여 하나 이상의 HBase 데몬을 구성합니다. 다음 속성을 설정할 수 있습니다.


| 속성 | 설명 | 
| --- | --- | 
| hbase-master-opts | JVM이 마스터 대몬을 실행하는 방식을 제어하는 옵션입니다. 설정된 경우 기본 HBASE\$1MASTER\$1OPTS 변수를 재정의합니다. | 
| regionserver-opts | JVM이 리전 서버 대몬을 실행하는 방식을 제어하는 옵션입니다. 설정된 경우 기본 HBASE\$1REGIONSERVER\$1OPTS 변수를 재정의합니다. | 
| zookeeper-opts | JVM이 zookeeper 대몬을 실행하는 방식을 제어하는 옵션입니다. 설정된 경우 기본 HBASE\$1ZOOKEEPER\$1OPTS 변수를 재정의합니다. | 

이 옵션에 대한 자세한 내용은 HBase 설명서의 [hbase-env.sh](https://hbase.apache.org/book.html#hbase.env.sh)를 참조하세요.

`zookeeper-opts` 및 `hbase-master-opts`에 대한 값을 구성하기 위한 부트스트랩 작업은 다음 예에 표시되어 있습니다.

**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
--applications Name=Hue Name=Hive Name=Pig Name=HBase \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-type c1.xlarge --instance-count 3 --termination-protected \
--bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hbase-daemons,\
Args=["--hbase-zookeeper-opts=-Xmx1024m -XX:GCTimeRatio=19","--hbase-master-opts=-Xmx2048m","--hbase-regionserver-opts=-Xmx4096m"]
```

### HBase 사이트 설정 구성
<a name="emr-3x-hbase-configure-site"></a>

Amazon EMR은 HBase의 구성을 변경하는 데 사용할 수 있는 부트스트랩 작업 `s3://elasticmapreduce/bootstrap-actions/configure-hbase`를 제공합니다. 구성 값을 부트스트랩 작업의 인수로 하나씩 설정하거나 Amazon S3에서 XML 구성 파일의 위치를 지정할 수 있습니다. 일부 구성 설정만 설정해야 하는 경우 구성 값을 하나씩 설정하는 것이 유용합니다. 변경해야 할 사항이 많거나 재사용할 수 있도록 구성 설정을 저장하려는 경우 XML 파일을 사용하여 설정하는 것이 유용합니다.

**참고**  
Amazon S3 버킷 이름의 접두사로 리전 접두사를 붙일 수 있습니다(예: `s3://region.elasticmapreduce/bootstrap-actions/configure-hbase`) 여기서 *region*은 HBase 클러스터를 시작하는 리전입니다.

이 부트스트랩 작업은 HBase 클러스터의 `/home/hadoop/conf/hbase-site.xml` 구성 파일을 수정합니다. HBase 클러스터가 시작될 경우에만 부트스트랩 작업을 실행할 수 있습니다.

구성할 수 있는 HBase 사이트 설정에 대한 자세한 내용은 HBase 설명서에서 [Default configuration](http://hbase.apache.org/book.html#config.files)을 참조하세요.

HBase 클러스터 시작 시 `configure-hbase` 부트스트랩 작업을 설정하고 변경할 `hbase-site.xml` 내에서 값을 지정합니다.

**를 사용하여 개별 HBase 사이트 설정을 지정하려면 AWS CLI**
+ `hbase.hregion.max.filesize` 설정을 변경하려면 다음 명령을 입력하고 *myKey*를 Amazon EC2 키 페어의 이름으로 바꿉니다.
**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

  ```
  aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
  --applications Name=Hue Name=Hive Name=Pig Name=HBase \
  --use-default-roles --ec2-attributes KeyName=myKey \
  --instance-type c1.xlarge --instance-count 3 --termination-protected \
  --bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hbase,Args=["-s","hbase.hregion.max.filesize=52428800"]
  ```

**를 사용하여 XML 파일로 HBase 사이트 설정을 지정하려면 AWS CLI**

1. 사용자 지정 `hbase-site.xml` 버전을 생성합니다. 사용자 지정 파일은 유효한 XML이어야 합니다. 오류 발생 가능성을 줄이려면 파일을 처음부터 새로 생성하는 대신에 `/home/hadoop/conf/hbase-site.xml`의 Amazon EMR HBase 프라이머리 노드에 위치한 `hbase-site.xml`의 기본 복사본으로 시작하여 해당 파일의 복사본을 편집합니다. 새 파일에 새 이름을 지정하거나 `hbase-site.xml`를 그대로 사용할 수 있습니다.

1. 사용자 지정 `hbase-site.xml` 파일을 Amazon S3 버킷에 업로드합니다. 클러스터를 시작하는 AWS 계정이 파일에 액세스할 수 있도록 권한이 설정되어 있어야 합니다. 클러스터를 시작하는 AWS 계정이 Amazon S3 버킷도 소유한 경우 액세스할 수 있습니다.

1. HBase 클러스터 시작 시 **configure-hbase** 부트스트랩 작업을 설정하고 사용자 지정 `hbase-site.xml` 파일의 위치를 포함합니다. 다음 예제에서는 HBase 사이트 구성 값을 `s3://amzn-s3-demo-bucket/my-hbase-site.xml` 파일에 지정된 값으로 설정합니다. 다음 명령을 입력하고 *myKey*를 EC2 키 페어의 이름으로 바꾸고 *amzn-s3-demo-bucket*을 Amazon S3 버킷의 이름으로 바꿉니다.
**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

   ```
   aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
           --applications Name=Hue Name=Hive Name=Pig Name=HBase \
           --use-default-roles --ec2-attributes KeyName=myKey \
           --instance-type c1.xlarge --instance-count 3 --termination-protected \
           --bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hbase,Args=["--site-config-file","s3://amzn-s3-demo-bucket/config.xml"]
   ```

   HBase 작업을 사용자 지정하는 옵션을 두 개 이상 지정하는 경우 다음 예제에 표시된 대로 각 키-값 쌍 앞에 `-s` 옵션 스위치를 추가해야 합니다.

   ```
          --bootstrap-actions s3://elasticmapreduce/bootstrap-actions/configure-hbase,Args=["-s","zookeeper.session.timeout=60000"]
   ```

프록시 세트와 SSH 연결이 열린 상태에서 http://*master-public-dns-name*:60010/master-status가 포함된 브라우저 창을 열어서 HBase UI를 볼 수 있습니다. 여기서 *master-public-dns-name*은 HBase클러스터에 있는 마스터 노드의 퍼블릭 DNS 주소입니다.

SSH를 사용하여 마스터 노드에 연결하고 `mnt/var/log/hbase` 디렉터리로 이동하여 현재 HBase 로그를 볼 수 있습니다. 클러스터가 시작될 때 Amazon S3에 대한 로깅이 활성화되지 않은 경우 이 로그는 클러스터가 종료된 후 사용할 수 없습니다.

## HBase 백업 및 복원
<a name="emr-3x-hbase-backup-restore"></a>

Amazon EMR은 수동 또는 자동 일정에 따라 HBase 데이터를 Amazon S3에 백업하는 기능을 제공합니다. 전체 및 증분 백업을 모두 수행할 수 있습니다. HBase 데이터의 백업 버전이 있으면 해당 버전을 HBase 클러스터로 복원할 수 있습니다. 현재 실행중인 HBase 클러스터로 복원하거나 백업된 데이터로 미리 채워진 새 클러스터를 시작할 수 있습니다.

백업 프로세스 중에 HBase는 쓰기 명령을 계속 실행합니다. 이렇게 하면 백업 중에 클러스터를 계속 사용할 수 있지만 백업 중인 데이터와 모든 쓰기 작업을 동시에 실행하는 데 불일치가 발생할 수 있습니다. 발생할 수 있는 불일치를 이해하려면 HBase가 클러스터의 노드에서 쓰기 작업을 분산시키는 것을 고려해야 합니다. 특정 노드가 폴링된 후 쓰기 작업이 발생하면 해당 데이터는 백업 아카이브에 포함되지 않습니다. 이미 폴링된 노드로 전송된 HBase 클러스터에 대한 이전 쓰기는 백업 아카이브에 없을 수 있으며 나중에 쓰기(폴링되기 전에 노드에 전송됨)가 포함됩니다.

이미 폴링된 노드로 전송된 HBase 클러스터에 대한 이전 쓰기는 백업 아카이브에 없을 수 있으며 나중에 쓰기(폴링되기 전에 노드에 전송됨)가 포함됩니다. 백업을 요청할 때 `--consistent` 파라미터를 지정하여 이 작업을 수행할 수 있습니다. 이 파라미터를 사용하면 이 기간 동안의 쓰기가 대기 상태가 되고 동기화가 완료되는 즉시 실행됩니다. 하나의 백업 단계에서 누락된 데이터가 다음 단계에서 백업되므로 시간 경과에 따른 불일치를 해결하는 반복 백업을 예약할 수도 있습니다.

HBase 데이터를 백업할 때 각 클러스터마다 다른 백업 디렉터리를 지정해야 합니다. 이를 수행하는 쉬운 방법은 클러스터 식별자를 백업 디렉터리에 지정된 경로의 일부로 사용하는 것입니다. 예를 들어 `s3://amzn-s3-demo-bucket/backups/j-3AEXXXXXX16F2`입니다. 이렇게 하면 향후 증분 백업이 올바른 HBase 클러스터를 참조하도록 보장할 수 있습니다.

더 이상 필요 없는 이전 백업 파일을 삭제할 준비가 되면 HBase 데이터의 전체 백업을 먼저 수행하는 것이 좋습니다. 이렇게 하면 모든 데이터가 보존되고 향후 증분 백업에 대한 기준이 제공됩니다. 전체 백업이 완료되면 백업 위치로 이동하여 수동으로 이전 백업 파일을 삭제할 수 있습니다.

HBase 백업 프로세스는 복사 작업에 S3DistCp를 사용합니다. 이 작업에는 임시 파일 스토리지 공간과 관련하여 특정 제한이 있습니다.

### 콘솔을 사용하여 HBase 백업 및 복원
<a name="emr-3x-hbase-backup-restore-console"></a>

콘솔은 새 클러스터를 시작하고 이전 HBase 백업의 데이터로 채울 수 있는 기능을 제공합니다. 또한 HBase 데이터를 주기적으로 증분 백업하도록 예약할 수 있습니다. 이미 실행 중인 클러스터로 데이터를 복원하고, 수동 백업을 수행하고, 자동화된 전체 백업을 예약하는 기능과 같은 추가 백업 및 복원 기능은 CLI를 통해 사용할 수 있습니다.

**콘솔을 사용하여 아카이브된 HBase 데이터로 새 클러스터를 채우려면**

1. 새 Amazon EMR 콘솔로 이동하고 측면 탐색에서 **이전 콘솔로 전환**을 선택합니다. 이전 콘솔로 전환할 때 예상되는 사항에 대한 자세한 내용은 [이전 콘솔 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/whats-new-in-console.html#console-opt-in)을 참조하세요.

1. **클러스터 생성**을 선택합니다.

1. **소프트웨어 구성** 섹션에서 **추가 애플리케이션**에 대해 **HBase** 및 **구성 및 추가**를 선택합니다.

1. **애플리케이션 추가** 대화 상자에서 **Restore From Backup(백업에서 복원)**을 선택합니다.

1. **백업 위치**에서 새 HBase 클러스터에 로드할 백업의 위치를 지정합니다. 이는 `s3://amzn-s3-demo-bucket/backups/` 양식의 Amazon S3 URL이어야 합니다.

1. **백업 버전**에 대해 값을 설정하여 로드할 백업 버전의 이름을 지정할 수 있습니다. **백업 버전**의 값을 설정하지 않을 경우 Amazon EMR이 지정된 위치에 최신 백업을 로드합니다.

1. **추가**를 선택하고 필요에 따라 다른 옵션으로 클러스터를 생성합니다.

**콘솔을 사용하여 HBase 데이터의 자동 백업을 예약하려면**

1. **소프트웨어 구성** 섹션에서 **추가 애플리케이션**에 대해 **HBase** 및 **구성 및 추가**를 선택합니다.

1. **정기 백업 예약**을 선택합니다.

1. 백업의 일관성 여부를 지정합니다. 일관된 백업은 초기 백업 단계, 즉 노드 간 동기화 중에 쓰기 작업을 일시 중지하는 백업입니다. 이렇게 일시 중지된 쓰기 작업은 대기열에 배치되고 동기화가 완료되면 다시 시작됩니다.

1. **백업 빈도**에 숫자를 입력하고 **일**, **시간** 또는 **분**을 선택하여 백업이 수행되는 빈도를 설정합니다. 실행되는 첫 번째 자동 백업은 전체 백업입니다. 그 후 Amazon EMR은 사용자가 지정한 일정에 따라 증분 백업을 저장합니다.

1. 백업이 저장되는 Amazon S3의 위치를 지정합니다. 증분 백업이 올바르게 계산되도록 하기 위해 각 HBase 클러스터를 Amazon S3의 별도 위치에 백업해야 합니다.

1. **백업 시작 시간**에 대한 값을 설정하여 첫 번째 백업이 발생해야 할 시점을 지정합니다. 클러스터가 실행되는 즉시 첫 번째 백업이 시작되도록 `now`로 설정하거나, [ISO 형식](http://www.w3.org/TR/NOTE-datetime)으로 날짜와 시간을 입력할 수 있습니다. 예를 들어, 2013-09-26T20:00Z는 시작 시간을 2013년 9월 26일 오후 8시(UTC)로 설정합니다.

1. **추가**를 선택합니다.

1. 계속해서 필요에 따라 다른 옵션으로 클러스터를 생성합니다.

## CloudWatch를 이용한 HBase 모니터링
<a name="emr-3x-hbase-cloudwatch"></a>

Amazon EMR은 HBase 백업을 모니터링하는 데 사용할 수 있는 세 가지 지표를 CloudWatch에 보고합니다. 이러한 지표는 5분 간격으로 CloudWatch로 푸시되고, 무료로 제공됩니다.


| 지표 | 설명 | 
| --- | --- | 
| HBaseBackupFailed |  마지막 백업 실패 여부입니다. 이 값은 기본적으로 0으로 설정되고 이전 백업 시도가 실패하면 1로 업데이트됩니다. 이 지표는 HBase 클러스터에 대해서만 보고됩니다. 사용 사례: HBase 백업 모니터링 Units: *Count*  | 
| HBaseMostRecentBackupDuration |  이전 백업이 완료되는 데 걸린 시간입니다. 이 지표는 마지막으로 완료된 백업의 성공 여부에 관계없이 설정됩니다. 백업이 진행되는 동안 이 지표는 백업이 시작된 후의 시간(분)을 반환합니다. 이 지표는 HBase 클러스터에 대해서만 보고됩니다. 사용 사례: HBase 백업 모니터링 단위: *분*  | 
| HBaseTimeSinceLastSuccessfulBackup |  클러스터에서 마지막으로 성공한 HBase 백업이 시작된 후 경과된 시간 (분)입니다. 이 지표는 HBase 클러스터에 대해서만 보고됩니다. 사용 사례: HBase 백업 모니터링 단위: *분*  | 

## HBase용 Ganglia 구성
<a name="emr-3x-ganglia-for-hbase"></a>

**configure-hbase-for-ganglia** 부트스트랩 작업을 사용하여 HBase용 Ganglia를 구성합니다. 이 부트스트랩 작업은 HBase가 지표를 Ganglia에 게시하도록 구성합니다.

클러스터를 시작할 때 HBase와 Ganglia를 구성해야 합니다. 실행중인 클러스터에 Ganglia 보고를 추가할 수 없습니다.

또한 Ganglia는 `/mnt/var/log/ganglia/rrds`에서 서버에 로그 파일을 저장합니다. 로그 파일을 Amazon S3 버킷에 보관하도록 클러스터를 구성한 경우, Ganglia 로그 파일도 여기에 보관됩니다.

HBase용 Ganglia가 설치된 클러스터를 시작하려면 다음 예제에 표시된 대로 **configure-hbase-for-ganglia** 부트스트랩 작업을 사용합니다.

**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr create-cluster --name "Test cluster" --ami-version 3.3 \
--applications Name=Hue Name=Hive Name=Pig Name=HBase Name=Ganglia \
--use-default-roles --ec2-attributes KeyName=myKey \
--instance-type c1.xlarge --instance-count 3 --termination-protected \
--bootstrap-actions Path=s3://elasticmapreduce/bootstrap-actions/configure-hbase-for-ganglia
```

Ganglia가 구성된 클러스터가 시작되면 마스터 노드에서 실행중인 그래픽 인터페이스를 사용하여 Ganglia 그래프와 보고서에 액세스할 수 있습니다.

# Amazon EMR의 이전 AMI 버전에 고유한 Pig 애플리케이션
<a name="emr-3x-pig"></a>

## 지원되는 Pig 버전
<a name="emr-3x-Pig_SupportedVersions"></a>

클러스터에 추가할 수 있는 Pig 버전은 사용하는 Amazon EMR AMI 버전 및 Hadoop 버전에 따라 다릅니다. 아래 표에서는 다양한 버전의 Pig와 호환되는 AMI 버전과 Hadoop 버전을 보여 줍니다. 사용 가능한 최신 버전의 Pig를 사용하여 성능 향상 및 새로운 기능을 활용하는 것이 좋습니다.

API를 사용하여 Pig를 설치할 때 [RunJobFlow](https://docs.aws.amazon.com/ElasticMapReduce/latest/API/API_RunJobFlow.html)를 직접 호출하는 동안 클러스터에 Pig를 로드하는 단계의 인수로 `--pig-versions`를 지정하지 않으면 기본 버전이 사용됩니다.


| Pig 버전 | AMI 버전 | 구성 파라미터 | Pig 버전 세부 정보 | 
| --- | --- | --- | --- | 
| <a name="pig12"></a>0.12.0[릴리스 정보](http://pig.apache.org/releases.html#14+October%2C+2013%3A+release+0.12.0+available)[설명서](http://pig.apache.org/docs/r0.12.0/) | 3.1.0 이상 |  `--ami-version 3.1` `--ami-version 3.2` `--ami-version 3.3`  |  다음에 대한 지원을 추가합니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/emr/latest/ReleaseGuide/emr-3x-pig.html)  | 
| <a name="pig1111"></a>0.11.1.1[릴리스 정보](http://pig.apache.org/releases.html#1+April%2C+2013%3A+release+0.11.1+available)[설명서](http://pig.apache.org/docs/r0.11.1/) | 2.2 이상 |  `--pig-versions 0.11.1.1` `--ami-version 2.2`  |  입력이 Amazon S3에 상주하는 경우 PigStorage에서 LOAD 명령의 성능을 개선합니다.  | 
| <a name="pig0111"></a>0.11.1[릴리스 정보](http://pig.apache.org/releases.html#1+April%2C+2013%3A+release+0.11.1+available)[설명서](http://pig.apache.org/docs/r0.11.1/) | 2.2 이상 |  `--pig-versions 0.11.1` `--ami-version 2.2`  |  JDK 7, Hadoop 2, Groovy 사용자 정의 함수, SchemaTuple 최적화, 새로운 연산자 등에 대한 지원을 추가합니다. 자세한 내용은 [Pig 0.11.1 change log](http://svn.apache.org/repos/asf/pig/tags/release-0.11.1/CHANGES.txt)를 참조하세요.  | 
| <a name="pig0922"></a>0.9.2.2[릴리스 정보](http://pig.apache.org/releases.html#22+January%2C+2012%3A+release+0.9.2+available)[설명서](http://pig.apache.org/docs/r0.9.2/index.html) | 2.2 이상 |  `--pig-versions 0.9.2.2` `--ami-version 2.2`  |  Hadoop 1.0.3에 대한 지원을 추가합니다.  | 
| <a name="pig0921"></a>0.9.2.1[릴리스 정보](http://pig.apache.org/releases.html#22+January%2C+2012%3A+release+0.9.2+available)[설명서](http://pig.apache.org/docs/r0.9.2/index.html) | 2.2 이상 |  `--pig-versions 0.9.2.1` `--ami-version 2.2`  |  MapR에 대한 지원을 추가합니다.  | 
| <a name="pig092"></a>0.9.2[릴리스 정보](http://pig.apache.org/releases.html#22+January%2C+2012%3A+release+0.9.2+available)[설명서](http://pig.apache.org/docs/r0.9.2/index.html) | 2.2 이상 |  `--pig-versions 0.9.2` `--ami-version 2.2`  |  여러 성능 향상과 버그 수정을 포함합니다. Pig 0.9.2 변경에 대한 전체 정보는 [Pig 0.9.2 change log](http://svn.apache.org/repos/asf/pig/tags/release-0.9.2/CHANGES.txt)를 참조하세요.  | 
| <a name="pig091"></a>0.9.1[릴리스 정보](http://pig.apache.org/releases.html#5+October%2C+2011%3A+release+0.9.1+available)[설명서](http://pig.apache.org/docs/r0.9.1/) | 2.0 |  `--pig-versions 0.9.1` `--ami-version 2.0`  | 
| <a name="pig06"></a>0.6[릴리스 정보](http://pig.apache.org/releases.html#1+March%2C+2010%3A+release+0.6.0+available) | 1.0 |  `--pig-versions 0.6` `--ami-version 1.0`  | 
| <a name="pig03"></a>0.3[릴리스 정보](http://pig.apache.org/releases.html#25+June%2C+2009%3A+release+0.3.0+available) | 1.0 |  `--pig-versions 0.3` `--ami-version 1.0`  | 

## Pig 버전 세부 정보
<a name="emr-pig-version-details"></a>

Amazon EMR은 추가 Amazon EMR 패치가 적용되어 있을 수 있는 특정 Pig 릴리스를 지원합니다. Amazon EMR 클러스터에서 어떤 버전의 Pig를 실행할지를 구성할 수 있습니다. 이 작업을 수행하는 방법에 대한 자세한 내용은 [Apache Pig](emr-pig.md) 섹션을 참조하세요. 다음 섹션에서는 다양한 Pig 버전과 Amazon EMR에서 로드된 버전에 적용되는 패치를 설명합니다.

### Pig 패치
<a name="EnvironmentConfig_AMIPigPatches"></a>

이 섹션에서는 Amazon EMR에서 사용할 수 있는 Pig 버전에 적용되는 사용자 지정 패치를 설명합니다.

#### Pig 0.11.1.1 패치
<a name="EnvironmentConfig_AMIPigPatches-0.11.1.1"></a>

Amazon EMR의 Pig 0.11.1.1 버전은 입력이 Amazon S3에 상주하는 경우 PigStorage에서 LOAD 명령의 성능을 개선하는 유지 관리 릴리스입니다.

#### Pig 0.11.1 패치
<a name="EnvironmentConfig_AMIPigPatches-0.11.1"></a>

Amazon EMR 버전의 Pig 0.11.1에는 Apache Software Foundation에서 제공하는 모든 업데이트와 Pig 버전 0.9.2.2 이후의 누적 Amazon EMR 패치가 포함됩니다. 하지만 Pig 0.11.1에는 새로운 Amazon EMR용 패치가 없습니다.

#### Pig 0.9.2 패치
<a name="EnvironmentConfig_AMIPigPatches-0.9.2"></a>

Apache Pig 0.9.2는 Pig의 유지 관리 릴리스입니다. Amazon EMR 팀은 다음 패치를 Pig 0.9.2의 Amazon EMR 버전에 적용했습니다.


| 패치 | 설명 | 
| --- | --- | 
|  PIG-1429  |   부울 데이터 형식을 Pig에 첫 번째 클래스 데이터 형식으로 추가합니다. 자세한 내용은 [https://issues.apache.org/jira/browse/PIG-1429](https://issues.apache.org/jira/browse/PIG-1429)를 참조하세요.  **상태:** 커밋됨   **Apache Pig 버전에서 수정됨:** 0.10   | 
|  PIG-1824  |   Jython UDF에서 모듈 가져오기를 지원합니다. 자세한 내용은 [https://issues.apache.org/jira/browse/PIG-1824](https://issues.apache.org/jira/browse/PIG-1824)를 참조하세요.  **상태:** 커밋됨   **Apache Pig 버전에서 수정됨:** 0.10   | 
|  PIG-2010  |   분산 캐시에 등록된 JAR을 번들링합니다. 자세한 내용은 [https://issues.apache.org/jira/browse/PIG-2010](https://issues.apache.org/jira/browse/PIG-2010)를 참조하세요.  **상태:** 커밋됨   **Apache Pig 버전에서 수정됨:** 0.11   | 
|  PIG-2456  |   사용자가 기본 Pig 문을 지정할 수 있는 \$1/.pigbootup 파일을 추가합니다. 자세한 내용은 [https://issues.apache.org/jira/browse/PIG-2456](https://issues.apache.org/jira/browse/PIG-2456)를 참조하세요.  **상태:** 커밋됨   **Apache Pig 버전에서 수정됨:** 0.11   | 
|  PIG-2623  |   Amazon S3 경로를 사용하여 UDF를 등록하는 기능을 지원합니다. 자세한 내용은 [https://issues.apache.org/jira/browse/PIG-2623](https://issues.apache.org/jira/browse/PIG-2623)를 참조하세요.  **상태:** 커밋됨   **Apache Pig 버전에서 수정됨:** 0.10, 0.11   | 

#### Pig 0.9.1 패치
<a name="EnvironmentConfig_AMIPigPatches-0.9.1"></a>

Amazon EMR 팀은 다음 패치를 Pig 0.9.1의 Amazon EMR 버전에 적용했습니다.


| 패치 | 설명 | 
| --- | --- | 
|  dfs에서 JAR 파일 및 Pig 스크립트 지원  |   HDFS, Amazon S3 또는 기타 분산 파일 시스템에 저장된 스크립트 실행 및 JAR 파일 등록에 대한 지원을 추가했습니다. 자세한 내용은 [https://issues.apache.org/jira/browse/PIG-1505](https://issues.apache.org/jira/browse/PIG-1505)를 참조하세요.  **상태:** 커밋됨   **Apache Pig 버전에서 수정됨:** 0.8.0   | 
|  Pig에서 다중 파일 시스템 지원  |   한 파일 시스템에서 데이터를 읽고 다른 파일 시스템에 쓰는 Pig 스크립트에 대한 지원을 추가합니다. 자세한 내용은 [https://issues.apache.org/jira/browse/PIG-1564](https://issues.apache.org/jira/browse/PIG-1564)를 참조하세요.  **상태:** 커밋 안 됨   **Apache Pig 버전에서 수정됨:** 해당 사항 없음   | 
|  Piggybank 날짜/시간 및 문자열 UDF 추가  |   사용자 지정 Pig 스크립트를 지원하기 위해 날짜/시간 및 문자열 UDF를 추가합니다. 자세한 내용은 [https://issues.apache.org/jira/browse/PIG-1565](https://issues.apache.org/jira/browse/PIG-1565)를 참조하세요.  **상태:** 커밋 안 됨   **Apache Pig 버전에서 수정됨:** 해당 사항 없음   | 

## 대화형 및 배치 Pig 클러스터
<a name="emr-3x-pig-interactive-batch"></a>

Amazon EMR을 사용하면 Pig 스크립트를 두 가지 모드로 실행할 수 있습니다.
+ 대화형
+ 배치

콘솔 또는를 사용하여 장기 실행 클러스터를 시작할 때를 사용하여 Hadoop 사용자로 마스터 노드**ssh**에 연결하고 Grunt 셸을 사용하여 대화형으로 Pig 스크립트를 개발하고 실행할 AWS CLI수 있습니다. Pig를 대화형으로 사용하면 배치 모드보다 더 쉽게 Pig 스크립트를 수정할 수 있습니다. 대화형 모드에서 Pig 스크립트를 수정한 후 스크립트를 Amazon S3에 업로드하고 배치 모드를 사용하여 프로덕션에서 스크립트를 실행할 수 있습니다. 또한 실행 중인 클러스터에서 대화형으로 Pig 명령을 제출하여 필요에 따라 분석하고 변환할 수 있습니다.

배치 모드에서 Pig 스크립트를 Amazon S3에 업로드한 다음, 작업을 클러스터에 하나의 단계로 제출합니다. 장기 실행 클러스터 또는 일시적 클러스터에 Pig 단계를 제출할 수 있습니다.

# Amazon EMR의 이전 AMI 버전에 고유한 Spark 애플리케이션
<a name="emr-3x-spark"></a>

## 대화식 또는 배치 모드로 Spark 사용
<a name="emr-3x-spark-interactive-batch"></a>

Amazon EMR에서는 두 가지 모드로 Spark 애플리케이션을 실행할 수 있습니다.
+ 대화형
+ 배치

콘솔 또는를 사용하여 장기 실행 클러스터를 시작할 때 SSH를 사용하여 Hadoop 사용자로 마스터 노드에 연결하고 Spark 셸을 사용하여 Spark 애플리케이션을 대화형으로 개발하고 실행할 AWS CLI수 있습니다. Spark를 대화식으로 사용하면 배치 환경에서 보다 더 쉽게 Spark 애플리케이션을 시제품화하거나 테스트할 수 있습니다. Spark 애플리케이션을 대화형 모드에서 수정한 후에는 해당 애플리케이션 JAR 또는 Python 프로그램을 Amazon S3에 있는 클러스터의 로컬 프라이머리 노드 파일 시스템에 추가할 수 있습니다. 그런 다음 이 애플리케이션을 배치 워크플로로 제출할 수 있습니다.

배치 모드에서는 Spark 스크립트를 Amazon S3 또는 로컬 프라이머리 노드 파일 시스템에 업로드한 다음, 작업을 클러스터에 하나의 단계로 제출합니다. 장기 실행 클러스터 또는 일시적 클러스터에 Spark 단계를 제출할 수 있습니다.

## Spark가 설치된 클러스터 생성
<a name="emr-3x-spark-install"></a>

**콘솔을 사용하여 Spark가 설치된 클러스터를 시작하려면**

1. 새 Amazon EMR 콘솔로 이동하고 측면 탐색에서 **이전 콘솔로 전환**을 선택합니다. 이전 콘솔로 전환할 때 예상되는 사항에 대한 자세한 내용은 [이전 콘솔 사용](https://docs.aws.amazon.com/emr/latest/ManagementGuide/whats-new-in-console.html#console-opt-in)을 참조하세요.

1. **클러스터 생성**을 선택합니다.

1. **소프트웨어 구성**에서 필요한 AMI 릴리스 버전을 선택합니다.

1.  **설치할 애플리케이션**의 목록에서 **Spark**를 선택한 다음 **구성 및 추가**를 선택합니다.

1. 인수를 추가하여 원하는 대로 Spark 구성을 변경합니다. 자세한 내용은 [Spark 구성](#emr-3x-spark-configure) 단원을 참조하십시오. **추가**를 선택합니다.

1.  필요에 따라 다른 옵션을 선택한 다음 **클러스터 생성**을 선택합니다.

다음은 Java를 사용하여 Spark가 설치된 클러스터를 생성하는 방법을 보여주는 예제입니다.

```
AmazonElasticMapReduceClient emr = new AmazonElasticMapReduceClient(credentials);
SupportedProductConfig sparkConfig = new SupportedProductConfig()
			.withName("Spark");

RunJobFlowRequest request = new RunJobFlowRequest()
			.withName("Spark Cluster")
			.withAmiVersion("3.11.0")
			.withNewSupportedProducts(sparkConfig)
			.withInstances(new JobFlowInstancesConfig()
				.withEc2KeyName("myKeyName")
				.withInstanceCount(1)
				.withKeepJobFlowAliveWhenNoSteps(true)
				.withMasterInstanceType("m3.xlarge")
				.withSlaveInstanceType("m3.xlarge")
			);			
RunJobFlowResult result = emr.runJobFlow(request);
```

## Spark 구성
<a name="emr-3x-spark-configure"></a>

클러스터를 생성할 때 [Github의 awslabs/emr-bootstrap-actions/spark 리포지토리](https://github.com/awslabs/emr-bootstrap-actions/tree/master/spark)에 있는 부트스트랩 작업을 실행하여 Spark를 구성합니다. 부트스트랩 작업이 허용하는 인수는 해당 리포지토리의 [README](https://github.com/aws-samples/emr-bootstrap-actions/blob/master/spark/examples/README.md)를 참조하세요. 부트스트랩 작업은 `$SPARK_CONF_DIR/spark-defaults.conf` 파일의 속성을 구성합니다. 설정에 대한 자세한 내용은 Spark 설명서의 Spark 구성 주제를 참조하세요. 다음 URL의 "latest"를 `2.2.0` [http://spark.apache.org/docs/latest/configuration.html](http://spark.apache.org/docs/latest/configuration.html)과 같이 설치하는 Spark 버전 번호로 대체할 수 있습니다.

또한 각 애플리케이션 제출 시 Spark를 동적으로 구성할 수 있습니다. `spark` 구성 파일을 사용하여 실행기에 대한 리소스 할당을 자동으로 최대화하는 설정을 사용할 수 있습니다. 자세한 내용은 [Spark 기본 구성 설정 재정의](#emr-3x-spark-dynamic-configuration) 단원을 참조하십시오.

### Spark 기본 설정 변경
<a name="emr-3x-spark-default-settings"></a>

다음은 AWS CLI를 사용하여 `spark.executor.memory`가 2G로 설정된 클러스터를 생성하는 방법을 보여주는 예입니다.

**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr create-cluster --name "Spark cluster" --ami-version 3.11.0 \
--applications Name=Spark, Args=[-d,spark.executor.memory=2G] --ec2-attributes KeyName=myKey \
--instance-type m3.xlarge --instance-count 3 --use-default-roles
```

### Spark에 작업 제출
<a name="emr-3x-spark-submit-work"></a>

작업을 클러스터로 제출하려면 단계를 사용하여 EMR 클러스터에서 `spark-submit` 스크립트를 실행합니다. [AmazonElasticMapReduceClient](https://docs.aws.amazon.com/AWSJavaSDK/latest/javadoc/com/amazonaws/services/elasticmapreduce/AmazonElasticMapReduceClient.html)에서 `addJobFlowSteps` 메서드를 사용하여 단계를 추가합니다.

```
AWSCredentials credentials = new BasicAWSCredentials(accessKey, secretKey);
AmazonElasticMapReduceClient emr = new AmazonElasticMapReduceClient(credentials);
StepFactory stepFactory = new StepFactory();
AddJobFlowStepsRequest req = new AddJobFlowStepsRequest();
req.withJobFlowId("j-1K48XXXXXXHCB");

List<StepConfig> stepConfigs = new ArrayList<StepConfig>();
		
StepConfig sparkStep = new StepConfig()
	.withName("Spark Step")
	.withActionOnFailure("CONTINUE")
	.withHadoopJarStep(stepFactory.newScriptRunnerStep("/home/hadoop/spark/bin/spark-submit","--class","org.apache.spark.examples.SparkPi","/home/hadoop/spark/lib/spark-examples-1.3.1-hadoop2.4.0.jar","10"));

stepConfigs.add(sparkStep);
req.withSteps(stepConfigs);
AddJobFlowStepsResult result = emr.addJobFlowSteps(req);
```

### Spark 기본 구성 설정 재정의
<a name="emr-3x-spark-dynamic-configuration"></a>

애플리케이션마다 Spark 기본 구성 값을 재정의해야 할 때가 있습니다. 이 작업은 단계를 사용하여 애플리케이션을 제출할 때 기본적으로 옵션을 `spark-submit`에 전달함으로써 수행할 수 있습니다. 예를 들면 `spark.executor.memory`를 변경하여 실행자 프로세스에 할당된 메모리를 변경해야 할 때가 있습니다. 다음과 같은 인수를 사용하여 `--executor-memory` 스위치를 공급할 수 있습니다.

```
/home/hadoop/spark/bin/spark-submit --executor-memory 1g --class org.apache.spark.examples.SparkPi /home/hadoop/spark/lib/spark-examples*.jar 10
```

마찬가지로, `--executor-cores` 및 `--driver-memory`를 조정할 수 있습니다. 단계에서 다음 인수를 단계에 제공합니다.

```
--executor-memory 1g --class org.apache.spark.examples.SparkPi /home/hadoop/spark/lib/spark-examples*.jar 10
```

또한 `--conf` 옵션을 사용하여 기본 제공 스위치가 없는 설정을 조정할 수도 있습니다. 조정 가능한 다양한 설정에 대한 자세한 내용은 Apache Spark 설명서의 [Dynamically Loading Spark Properties](https://spark.apache.org/docs/latest/configuration.html#dynamically-loading-spark-properties) 주제를 참조하세요.

# Amazon EMR의 이전 AMI 버전에서 S3DistCp 유틸리티 차이
<a name="emr-3x-s3distcp"></a>

## Amazon EMR에서 지원되는 S3DistCp 버전
<a name="emr-s3distcp-verisons"></a>

Amazon EMR AMI 릴리스에서 다음 S3DistCp 버전이 지원됩니다. 1.0.7 이후 S3DistCp 버전은 클러스터에 있습니다. 최신 기능을 사용하려면 `/home/hadoop/lib`의 JAR을 사용하세요.


| 버전 | 설명 | 릴리스 날짜 | 
| --- | --- | --- | 
| 1.0.8 | --appendToLastFile, --requirePreviousManifest 및 --storageClass 옵션을 추가합니다. | 2014년 1월 3일 | 
| 1.0.7 | --s3ServerSideEncryption 옵션을 추가합니다. | 2013년 5월 2일 | 
| 1.0.6 | --s3Endpoint 옵션을 추가합니다. | 2012년 8월 6일 | 
| 1.0.5 | 실행할 S3DistCp 버전을 지정하는 기능을 개선했습니다. | 2012년 6월 27일 | 
| 1.0.4 | --deleteOnSuccess 옵션을 개선했습니다. | 2012년 6월 19일 | 
| 1.0.3 | --numberFiles 및 --startingIndex 옵션에 대한 지원을 추가했습니다. | 2012년 6월 12일 | 
| 1.0.2 | 그룹 사용 시 파일 명명을 개선했습니다. | 2012년 6월 6일 | 
| 1.0.1 | S3DistCp의 초기 릴리스. | 2012년 1월 19일 | 

## 클러스터에 S3DistCp 복사 단계 추가
<a name="emr-3x-s3distcp-add-step"></a>

S3DistCp 복사 단계를 실행 중인 클러스터에 추가하려면 다음 명령을 입력하고 *j-3GYXXXXXX9IOK*를 클러스터 ID로 바꾸고, *amzn-s3-demo-bucket*을 Amazon S3 버킷 이름으로 바꿉니다.

**참고**  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr add-steps --cluster-id j-3GYXXXXXX9IOK \
--steps Type=CUSTOM_JAR,Name="S3DistCp step",Jar=/home/hadoop/lib/emr-s3distcp-1.0.jar,\
Args=["--s3Endpoint,s3-eu-west-1.amazonaws.com",\
"--src,s3://amzn-s3-demo-bucket/logs/j-3GYXXXXXX9IOJ/node/",\
"--dest,hdfs:///output",\
"--srcPattern,.*[a-zA-Z,]+"]
```

**Example Amazon CloudFront 로그를 HDFS에 로드**  
이 예제에서는 실행 중인 클러스터에 단계를 추가하여 Amazon CloudFront 로그를 HDFS에 로드합니다. 프로세스에서 Gzip(CloudFront 기본값)의 압축 형식을 LZO로 변경합니다. 이렇게 하면 LZO를 사용하여 압축된 데이터를 압축 해제 시 여러 맵으로 분할할 수 있으므로 Gzip 사용 시 압축이 완료될 때까지 기다릴 필요가 없어서 유용합니다. 따라서 Amazon EMR을 사용하여 데이터를 분석할 때 성능이 향상됩니다. 또한 이 예제는 `--groupBy` 옵션에 지정된 정규식을 사용하여 주어진 시간 동안 모든 로그를 단일 파일로 결합하여 성능을 개선합니다. Amazon EMR 클러스터는 여러 개의 작은 GZIP 압축 파일을 처리할 때보다 LZO로 압축된 소수의 대용량 파일을 처리할 때 더 효율적입니다. LZO 파일을 분할하려면 파일을 인덱싱하고 Hadoop-lzo 타사 라이브러리를 사용해야 합니다.  
Amazon CloudFront 로그를 HDFS에 로드하려면 다음 명령을 입력하고 *j-3GYXXXXXX9IOK*를 클러스터 ID로 바꾸고, *amzn-s3-demo-bucket*을 Amazon S3 버킷 이름으로 바꿉니다.  
가독성을 위해 Linux 줄 연속 문자(\$1)가 포함됩니다. Linux 명령에 사용하거나 제외할 수 있습니다. Windows에서는 제외시키거나 캐럿(^)으로 바꿉니다.

```
aws emr add-steps --cluster-id j-3GYXXXXXX9IOK \
--steps Type=CUSTOM_JAR,Name="S3DistCp step",Jar=/home/hadoop/lib/emr-s3distcp-1.0.jar,\
Args=["--src,s3://amzn-s3-demo-bucket/cf","--dest,hdfs:///local",\
"--groupBy,.*XABCD12345678.([0-9]+-[0-9]+-[0-9]+-[0-9]+).*",\
"--targetSize,128",
"--outputCodec,lzo","--deleteOnSuccess"]
```
이전 예제를 다음과 같은 CloudFront 로그 파일에서 실행한다고 가정합니다.  

```
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-01.HLUS3JKx.gz
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-01.I9CNAZrg.gz
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-02.YRRwERSA.gz
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-02.dshVLXFE.gz
s3://amzn-s3-demo-bucket/cf/XABCD12345678.2012-02-23-02.LpLfuShd.gz
```
S3DistCp는 파일을 복사 및 연결하고 다음 두 개 파일로 압축합니다. 이때 파일 이름은 정규식과 일치하는 항목에 따라 결정됩니다.  

```
hdfs:///local/2012-02-23-01.lzo
hdfs:///local/2012-02-23-02.lzo
```