Amazon EMR 릴리스 5.26.0
5.26.0 애플리케이션 버전
이 릴리스에서 지원되는 애플리케이션은 Flink
아래 테이블에는 이번 Amazon EMR 릴리스에서 사용할 수 있는 애플리케이션 버전과 이전 세 가지 Amazon EMR 릴리스(해당하는 경우)의 애플리케이션 버전이 나와 있습니다.
각 Amazon EMR 릴리스에서 애플리케이션 버전의 전체 기록은 다음 주제를 참조하세요.
| emr-5.26.0 | emr-5.25.0 | emr-5.24.1 | emr-5.24.0 | |
|---|---|---|---|---|
| Java용 AWS SDK | 1.11.595 | 1.11.566 | 1.11.546 | 1.11.546 |
| Python | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 | 2.7, 3.6 |
| Scala | 2.11.12 | 2.11.12 | 2.11.12 | 2.11.12 |
| AmazonCloudWatchAgent | - | - | - | - |
| Delta | - | - | - | - |
| Flink | 1.8.0 | 1.8.0 | 1.8.0 | 1.8.0 |
| Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
| HBase | 1.4.10 | 1.4.9 | 1.4.9 | 1.4.9 |
| HCatalog | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 |
| Hadoop | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 | 2.8.5-amzn-4 |
| Hive | 2.3.5-amzn-0 | 2.3.5-amzn-0 | 2.3.4-amzn-2 | 2.3.4-amzn-2 |
| Hudi | - | - | - | - |
| Hue | 4.4.0 | 4.4.0 | 4.4.0 | 4.4.0 |
| Iceberg | - | - | - | - |
| JupyterEnterpriseGateway | - | - | - | - |
| JupyterHub | 0.9.6 | 0.9.6 | 0.9.6 | 0.9.6 |
| Livy | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating | 0.6.0-incubating |
| MXNet | 1.4.0 | 1.4.0 | 1.4.0 | 1.4.0 |
| Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
| Oozie | 5.1.0 | 5.1.0 | 5.1.0 | 5.1.0 |
| Phoenix | 4.14.2-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 | 4.14.1-HBase-1.4 |
| Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
| Presto | 0.220 | 0.220 | 0.219 | 0.219 |
| Spark | 2.4.3 | 2.4.3 | 2.4.2 | 2.4.2 |
| Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
| TensorFlow | 1.13.1 | 1.13.1 | 1.12.0 | 1.12.0 |
| Tez | 0.9.2 | 0.9.2 | 0.9.1 | 0.9.1 |
| Trino (PrestoSQL) | - | - | - | - |
| Zeppelin | 0.8.1 | 0.8.1 | 0.8.1 | 0.8.1 |
| ZooKeeper | 3.4.14 | 3.4.14 | 3.4.13 | 3.4.13 |
5.26.0 릴리스 정보
다음 릴리스 정보에는 Amazon EMR 릴리스 5.26.0에 대한 정보가 포함됩니다. 변경 사항은 5.25.0에 관련됩니다.
최초 릴리스 날짜: 2019년 8월 8일
최종 업데이트 날짜: 2019년 8월 19일
업그레이드
AWS SDK for Java 1.11.595
HBase 1.4.10
Phoenix 4.14.2
-
커넥터 및 드라이버:
DynamoDB 커넥터 4.11.0
MariaDB 커넥터 2.4.2
Amazon Redshift JDBC 드라이버 1.2.32.1056
새로운 특징
(베타) Amazon EMR 5.26.0에서 Lake Formation과 통합된 클러스터를 시작할 수 있습니다. 이 통합은 AWS Glue Data Catalog의 데이터베이스 및 테이블에 대한 세분화된 열 수준 액세스를 제공합니다. 또한 엔터프라이즈 자격 증명 시스템에서 EMR 노트북 또는 Apache Zeppelin에 연동된 Single Sign-On을 사용할 수도 있습니다. 자세한 내용은 Amazon EMR과 AWS Lake Formation 통합(베타)을 참조하세요.
(2019년 8월 19일) 보안 그룹을 지원하는 모든 Amazon EMR 릴리스에 Amazon EMR 퍼블릭 액세스 차단 기능을 사용할 수 있습니다. 퍼블릭 액세스 차단은 각 AWS 리전에 적용되는 계정 차원의 설정입니다. 포트가 예외로 지정되지 않은 한, 퍼블릭 액세스 차단은 클러스터와 연결된 보안 그룹에 포트의 IPv4 0.0.0.0/0 또는 IPv6 ::/0(퍼블릭 액세스)에서 인바운드 트래픽을 허용하는 규칙이 있을 때 클러스터가 시작되지 않도록 합니다. 포트 22는 기본적으로 예외로 설정됩니다. 자세한 내용은 Amazon EMR 관리 안내서에서 Amazon EMR 퍼블랙 액세스 차단 기능 사용을 참조하세요.
변경 사항, 향상된 기능 및 해결된 문제
-
EMR 노트북
-
EMR 5.26.0 이상에서 EMR Notebooks는 기본 Python 라이브러리 외에도 노트북 범위의 Python 라이브러리를 지원합니다. 클러스터를 다시 생성하거나 노트북을 클러스터에 다시 연결할 필요 없이 노트북 편집기 내에서 노트북 범위 라이브러리를 설치할 수 있습니다. 노트북 범위의 라이브러리는 Python 가상 환경에서 생성되므로 현재 노트북 세션에만 적용됩니다. 이를 통해 노트북 종속성을 분리할 수 있습니다. 자세한 내용은 Amazon EMR 관리 안내서에서 노트북 범위 라이브러리 사용을 참조하세요.
-
-
EMRFS
-
fs.s3.consistent.metadata.etag.verification.enabled을(를)true(으)로 설정하여 ETag 확인 기능(베타)을 활성화할 수 있습니다. 이 기능을 통해 EMRFS는 Amazon S3 ETag를 사용하여 읽고 있는 객체가 사용 가능한 최신 버전인지 확인합니다. 이 기능은 동일한 이름을 유지하면서 Amazon S3의 파일을 덮어쓰는 업데이트 후 읽기 사용 사례에 유용합니다. 이 ETag 확인 기능은 현재 S3 Select에서 작동하지 않습니다. 자세한 내용은 일관된 보기 구성 섹션을 참조하세요.
-
Spark
동적 파티션 잘라내기, INTERSECT에 앞선 DISTINCT, JOIN-DISTINCT 쿼리에 대한 SQL 계획 통계 추론의 개선, 스칼라 하위 쿼리 평면화, 최적화된 조인 재정렬 및 블룸 필터 조인과 같은 최적화가 이제 기본적으로 설정됩니다. 자세한 내용은 Spark 성능 최적화를 참조하세요.
정렬 병합 조인의 전체 스테이지 코드 생성 기능이 개선되었습니다.
쿼리 조각 및 하위 쿼리 재사용이 개선되었습니다.
Spark 시작 시 실행기를 사전 할당하도록 개선되었습니다.
조인의 작은 쪽에 브로드캐스트 힌트가 포함되어 있으면 블룸 필터 조인이 더 이상 적용되지 않습니다.
-
Tez의 Hive 실행 시간 비교
-
Tez 관련 문제를 해결했습니다. 이제 Tez UI는 여러 프라이머리 노드를 포함하는 Amazon EMR 클러스터에서 작동합니다.
-
알려진 문제
-
정렬 병합 조인에 대한 향상된 전체 스테이지 코드 생성 기능을 사용하면 메모리 압력을 높일 수 있습니다. 이 최적화는 성능을 향상시키지만
spark.yarn.executor.memoryOverheadFactor이(가) 충분한 메모리를 제공하도록 조정되지 않은 경우 작업 재시도 또는 실패를 초래할 수 있습니다. 이 기능을 비활성화하려면spark.sql.sortMergeJoinExec.extendedCodegen.enabled을(를) false로 설정하세요. -
여러 프라이머리 노드와 Kerberos 인증을 사용하는 클러스터에서 알려진 문제
Amazon EMR 릴리스 5.20.0 이상에서 여러 프라이머리 노드와 Kerberos 인증을 사용하여 클러스터를 실행하는 경우, 클러스터를 일정 시간 실행한 후 스케일 다운 또는 단계 제출과 같은 클러스터 작업에 문제가 발생할 수 있습니다. 기간은 정의한 Kerberos 티켓 유효 기간에 따라 다릅니다. 스케일 다운 문제는 제출한 자동 스케일 다운 및 명시적 스케일 다운 요청 모두에 영향을 미칩니다. 이외의 다른 클러스터 작업도 영향을 받을 수 있습니다.
해결 방법:
-
여러 프라이머리 노드가 있는 EMR 클러스터의 리드 프라이머리 노드에 대한
hadoop사용자로 SSH 연결합니다. -
다음 명령을 실행하여
hadoop사용자의 Kerberos 티켓을 갱신합니다.kinit -kt <keytab_file> <principal>일반적으로 keytab 파일은
/etc/hadoop.keytab에 있으며, 보안 주체는hadoop/<hostname>@<REALM>양식입니다.
참고
이 해결 방법은 Kerberos 티켓이 유효한 기간에 작동합니다. 이 기간은 기본적으로 10시간이지만 Kerberos 설정으로 구성할 수 있습니다. Kerberos 티켓이 만료되면 위 명령을 다시 실행해야 합니다.
-
5.26.0 구성 요소 버전
이 릴리스를 통해 Amazon EMR이 설치하는 구성 요소는 다음과 같습니다. 일부는 빅 데이터 애플리케이션 패키지의 일부로 설치됩니다. 나머지는 Amazon EMR에 고유하며 시스템 프로세스 및 기능을 위해 설치됩니다. 이는 일반적으로 emr 또는 aws로 시작됩니다. 최근 Amazon EMR 릴리스의 빅 데이터 애플리케이션 패키지는 일반적으로 커뮤니티에서 발견된 최신 버전입니다. 가능한 한 빨리 Amazon EMR에서 커뮤니티 릴리스를 제공합니다.
Amazon EMR의 일부 구성 요소는 커뮤니티 버전과 다릅니다. 이러한 구성 요소에는 양식의 버전 레이블이 있습니다. CommunityVersion-amzn-EmrVersion은 0에서 시작합니다. 예를 들어, 버전 2.2의 EmrVersionmyapp-component라는 오픈 소스 커뮤니티 구성 요소가 다른 Amazon EMR 릴리스에 포함되도록 세 번 수정된 경우 해당 릴리스 버전은 2.2-amzn-2로 나열됩니다.
| 구성 요소 | 버전 | 설명 |
|---|---|---|
| aws-sagemaker-spark-sdk | 1.2.4 | Amazon SageMaker Spark SDK |
| emr-ddb | 4.11.0 | Hadoop 에코시스템 애플리케이션용 Amazon DynamoDB 커넥터 |
| emr-goodies | 2.10.0 | 편리한 Hadoop 에코시스템용 추가 라이브러리 |
| emr-kinesis | 3.4.0 | Hadoop 에코시스템 애플리케이션용 Amazon Kinesis 커넥터. |
| emr-s3-dist-cp | 2.12.0 | Amazon S3용으로 최적화된 분사 복사 애플리케이션. |
| emr-s3-select | 1.3.0 | EMR S3Select 커넥터 |
| emrfs | 2.35.0 | Hadoop 에코시스템 애플리케이션용 Amazon S3 커넥터. |
| flink-client | 1.8.0 | Apache Flink 명령줄 클라이언트 스크립트 및 애플리케이션 |
| ganglia-monitor | 3.7.2 | Hadoop 에코시스템 애플리케이션용 내장형 Ganglia 에이전트와 Ganglia 모니터링 에이전트. |
| ganglia-metadata-collector | 3.7.2 | Ganglia 모니터링 에이전트의 측정치를 집계하기 위한 Ganglia 메타데이터 수집기. |
| ganglia-web | 3.7.1 | Ganglia 메타데이터 수집기에서 수집되는 측정치를 볼 수 있는 웹 애플리케이션. |
| hadoop-client | 2.8.5-amzn-4 | 'hdfs', 'hadoop', 'yarn' 등과 같은 Hadoop 명령줄 클라이언트 |
| hadoop-hdfs-datanode | 2.8.5-amzn-4 | 블록을 저장하는 HDFS 노드 수준 서비스 |
| hadoop-hdfs-library | 2.8.5-amzn-4 | HDFS 명령줄 클라이언트 및 라이브러리 |
| hadoop-hdfs-namenode | 2.8.5-amzn-4 | 파일 이름 및 블록 위치를 추적하는 HDFS 서비스 |
| hadoop-hdfs-journalnode | 2.8.5-amzn-4 | HA 클러스터에서 Hadoop 파일 시스템 저널을 관리하기 위한 HDFS 서비스 |
| hadoop-httpfs-server | 2.8.5-amzn-4 | HDFS 작업에 대한 HTTP 엔드포인트 |
| hadoop-kms-server | 2.8.5-amzn-4 | Hadoop의 KeyProvider API를 기반으로 하는 암호화 키 관리 서버 |
| hadoop-mapred | 2.8.5-amzn-4 | MapReduce 애플리케이션을 실행하는 MapReduce 실행 엔진 라이브러리 |
| hadoop-yarn-nodemanager | 2.8.5-amzn-4 | 개별 노드의 컨테이너를 관리하는 YARN 서비스 |
| hadoop-yarn-resourcemanager | 2.8.5-amzn-4 | 클러스터 리소스 및 분산 애플리케이션을 할당 및 관리하는 YARN 서비스 |
| hadoop-yarn-timeline-server | 2.8.5-amzn-4 | YARN 애플리케이션의 현재 및 기록 정보를 가져오는 서비스 |
| hbase-hmaster | 1.4.10 | 리전 조정 및 관리 명령의 실행을 담당하는 HBase 클러스터용 서비스 |
| hbase-region-server | 1.4.10 | 한 개 이상의 HBase 리전에 서비스를 제공하는 서비스 |
| hbase-client | 1.4.10 | HBase 명령줄 클라이언트 |
| hbase-rest-server | 1.4.10 | HBase용 RESTful HTTP 엔드포인트를 제공하는 서비스 |
| hbase-thrift-server | 1.4.10 | HBase에 Thrift 엔드포인트를 제공하는 서비스 |
| hcatalog-client | 2.3.5-amzn-0 | hcatalog-server를 조정하기 위한 'hcat' 명령줄 클라이언트 |
| hcatalog-server | 2.3.5-amzn-0 | 분산 애플리케이션용 스토리지 관리 계층 및 테이블, HCatalog를 제공하는 서비스 |
| hcatalog-webhcat-server | 2.3.5-amzn-0 | HCatalog에 REST 인터페이스를 제공하는 HTTP 엔드포인트 |
| hive-client | 2.3.5-amzn-0 | Hive 명령줄 클라이언트 |
| hive-hbase | 2.3.5-amzn-0 | Hive-hbase 클라이언트 |
| hive-metastore-server | 2.3.5-amzn-0 | Hadoop 작업에 대한 SQL용 메타데이터가 저장되는 시맨틱 리포지토리인 Hive 메타스토어에 액세스하기 위한 서비스 |
| hive-server2 | 2.3.5-amzn-0 | Hive 쿼리를 웹 요청으로 수락하기 위한 서비스 |
| hue-server | 4.4.0 | Hadoop 에코시스템 애플리케이션을 사용하여 데이터를 분석하는 웹 애플리케이션. |
| jupyterhub | 0.9.6 | Jupyter Notebook용 다중 사용자 서버 |
| livy-server | 0.6.0-incubating | Apache Spark와 상호작용하기 위한 REST 인터페이스 |
| nginx | 1.12.1 | HTTP인 nginx [engine x] 및 역방향 프록시 서버 |
| mahout-client | 0.13.0 | 머신 러닝을 위한 라이브러리. |
| mxnet | 1.4.0 | 유연성, 확장성 및 효율성이 뛰어난 딥 러닝용 라이브러리. |
| mysql-server | 5.5.54+ | MySQL 데이터베이스 서버. |
| nvidia-cuda | 9.2.88 | Nvidia 드라이버와 Cuda 도구 키트 |
| oozie-client | 5.1.0 | Oozie 명령줄 클라이언트 |
| oozie-server | 5.1.0 | Oozie 워크플로 요청을 수락하는 서비스 |
| opencv | 3.4.0 | 오픈 소스 컴퓨터 비전 라이브러리. |
| phoenix-library | 4.14.2-HBase-1.4 | 서버 및 클라이언트의 phoenix 라이브러리 |
| phoenix-query-server | 4.14.2-HBase-1.4 | Avatica API에 대한 JSON 형식 액세스 및 프로토콜 버퍼 액세스를 비롯하여 JDBC 액세스를 제공하는 경량 서버 |
| presto-coordinator | 0.220 | presto-worker의 쿼리를 수락하고 쿼리 실행을 관리하는 서비스. |
| presto-worker | 0.220 | 여러 쿼리를 실행하는 서비스. |
| pig-client | 0.17.0 | Pig 명령줄 클라이언트. |
| r | 3.4.1 | 통계 컴퓨팅용 R 프로젝트 |
| spark-client | 2.4.3 | Spark 명령줄 클라이언트. |
| spark-history-server | 2.4.3 | 완료된 Spark 애플리케이션의 수명에 대해 기록된 이벤트를 조회하는 웹 UI. |
| spark-on-yarn | 2.4.3 | YARN용 인 메모리 실행 엔진. |
| spark-yarn-slave | 2.4.3 | YARN 슬레이브에서 필요한 Apache Spark 라이브러리. |
| sqoop-client | 1.4.7 | Apache Sqoop 명령줄 클라이언트. |
| tensorflow | 1.13.1 | TensorFlow는 고성능 수치 계산용 오픈 소스 소프트웨어 라이브러리입니다. |
| tez-on-yarn | 0.9.2 | tez YARN 애플리케이션 및 라이브러리. |
| webserver | 2.4.25+ | Apache HTTP 서버. |
| zeppelin-server | 0.8.1 | 대화형 데이터 분석이 가능한 웹 기반 노트북 |
| zookeeper-server | 3.4.14 | 구성 정보 유지 관리, 이름 지정, 분산 동기화 제공 및 그룹 서비스 제공을 위한 중앙 집중식 서비스. |
| zookeeper-client | 3.4.14 | ZooKeeper 명령줄 클라이언트. |
5.26.0 구성 분류
구성 분류를 사용하면 애플리케이션을 사용자 지정할 수 있습니다. 이는 종종 hive-site.xml과 같이 애플리케이션의 구성 XML 파일에 해당합니다. 자세한 내용은 애플리케이션 구성 섹션을 참조하세요.
| 분류 | 설명 |
|---|---|
capacity-scheduler | Hadoop capacity-scheduler.xml 파일의 값을 변경합니다. |
container-log4j | Hadoop YARN의 container-log4j.properties 파일의 값을 변경합니다. |
core-site | Hadoop core-site.xml 파일의 값을 변경합니다. |
emrfs-site | EMRFS 설정을 변경합니다. |
flink-conf | flink-conf.yaml 설정을 변경합니다. |
flink-log4j | Flink log4j.properties 설정을 변경합니다. |
flink-log4j-yarn-session | Flink log4j-yarn-session.properties 설정을 변경합니다. |
flink-log4j-cli | Flink log4j-cli.properties 설정을 변경합니다. |
hadoop-env | 모든 Hadoop 구성 요소에 대한 Hadoop 환경의 값을 변경합니다. |
hadoop-log4j | Hadoop log4j.properties 파일의 값을 변경합니다. |
hadoop-ssl-server | hadoop ssl 서버 구성을 변경합니다. |
hadoop-ssl-client | hadoop ssl 클라이언트 구성을 변경합니다. |
hbase | Apache HBase에 대한 Amazon EMR 큐레이트 설정입니다. |
hbase-env | HBase 환경의 값을 변경합니다. |
hbase-log4j | HBase hbase-log4j.properties 파일의 값을 변경합니다. |
hbase-metrics | HBase hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
hbase-policy | HBase hbase-policy.xml 파일의 값을 변경합니다. |
hbase-site | HBase hbase-site.xml 파일의 값을 변경합니다. |
hdfs-encryption-zones | HDFS 암호화 영역을 구성합니다. |
hdfs-site | HDFS hdfs-site.xml의 값을 변경합니다. |
hcatalog-env | HCatalog 환경의 값을 변경합니다. |
hcatalog-server-jndi | HCatalog jndi.properties 환경의 값을 변경합니다. |
hcatalog-server-proto-hive-site | HCatalog proto-hive-site.xml의 값을 변경합니다. |
hcatalog-webhcat-env | HCatalog WebHCat 환경의 값을 변경합니다. |
hcatalog-webhcat-log4j2 | HCatalog WebHCat log4j2.properties의 값을 변경합니다. |
hcatalog-webhcat-site | HCatalog WebHCat webhcat-site.xml 파일의 값을 변경합니다. |
hive-beeline-log4j2 | Hive beeline-log4j2.properties 파일의 값을 변경합니다. |
hive-parquet-logging | Hive parquet-logging.properties 파일의 값을 변경합니다. |
hive-env | Hive 환경의 값을 변경합니다. |
hive-exec-log4j2 | Hive hive-exec-log4j2.properties 파일의 값을 변경합니다. |
hive-llap-daemon-log4j2 | Hive llap-daemon-log4j2.properties 파일의 값을 변경합니다. |
hive-log4j2 | Hive hive-log4j2.properties 파일의 값을 변경합니다. |
hive-site | Hive hive-site.xml 파일의 값을 변경합니다. |
hiveserver2-site | Hive Server2 hiveserver2-site.xml 파일의 값을 변경합니다. |
hue-ini | Hue ini 파일의 값을 변경합니다. |
httpfs-env | HTTPFS 환경의 값을 변경합니다. |
httpfs-site | Hadoop httpfs-site.xml 파일의 값을 변경합니다. |
hadoop-kms-acls | Hadoop kms-acls.xml 파일의 값을 변경합니다. |
hadoop-kms-env | Hadoop KMS 환경의 값을 변경합니다. |
hadoop-kms-log4j | Hadoop kms-log4j.properties 파일의 값을 변경합니다. |
hadoop-kms-site | Hadoop kms-site.xml 파일의 값을 변경합니다. |
jupyter-notebook-conf | Jupyter Notebook의 jupyter_notebook_config.py 파일에서 값을 변경합니다. |
jupyter-hub-conf | JupyterHubs의 jupyterhub_config.py 파일에서 값을 변경합니다. |
jupyter-s3-conf | Jupyter Notebook S3 지속성 구성 |
jupyter-sparkmagic-conf | Sparkmagic의 config.json 파일의 값을 변경합니다. |
livy-conf | Livy의 livy.conf 파일의 값을 변경합니다. |
livy-env | Livy 환경의 값을 변경합니다. |
livy-log4j | Livy log4j.properties 설정을 변경합니다. |
mapred-env | MapReduce 애플리케이션 환경의 값을 변경합니다. |
mapred-site | MapReduce 애플리케이션 mapred-site.xml 파일의 값을 변경합니다. |
oozie-env | Oozie 환경의 값을 변경합니다. |
oozie-log4j | Oozie oozie-log4j.properties 파일의 값을 변경합니다. |
oozie-site | Oozie oozie-site.xml 파일의 값을 변경합니다. |
phoenix-hbase-metrics | Phoenix hadoop-metrics2-hbase.properties 파일의 값을 변경합니다. |
phoenix-hbase-site | Phoenix hbase-site.xml 파일의 값을 변경합니다. |
phoenix-log4j | Phoenix log4j.properties 파일의 값을 변경합니다. |
phoenix-metrics | Phoenix hadoop-metrics2-phoenix.properties 파일의 값을 변경합니다. |
pig-env | Pig 환경에서 값을 변경합니다. |
pig-properties | Pig pig.properties 파일의 값을 변경합니다. |
pig-log4j | Pig log4j.properties 파일의 값을 변경합니다. |
presto-log | Presto log.properties 파일의 값을 변경합니다. |
presto-config | Presto config.properties 파일의 값을 변경합니다. |
presto-password-authenticator | Presto의 password-authenticator.properties 파일에서 값을 변경합니다. |
presto-env | Presto의 presto-env.sh 파일에서 값을 변경합니다. |
presto-node | Presto의 node.properties 파일에서 값을 변경합니다. |
presto-connector-blackhole | Presto blackhole.properties 파일의 값을 변경합니다. |
presto-connector-cassandra | Presto cassandra.properties 파일의 값을 변경합니다. |
presto-connector-hive | Presto hive.properties 파일의 값을 변경합니다. |
presto-connector-jmx | Presto jmx.properties 파일의 값을 변경합니다. |
presto-connector-kafka | Presto kafka.properties 파일의 값을 변경합니다. |
presto-connector-localfile | Presto localfile.properties 파일의 값을 변경합니다. |
presto-connector-memory | Presto memory.properties 파일의 값을 변경합니다. |
presto-connector-mongodb | Presto mongodb.properties 파일의 값을 변경합니다. |
presto-connector-mysql | Presto mysql.properties 파일의 값을 변경합니다. |
presto-connector-postgresql | Presto postgresql.properties 파일의 값을 변경합니다. |
presto-connector-raptor | Presto raptor.properties 파일의 값을 변경합니다. |
presto-connector-redis | Presto redis.properties 파일의 값을 변경합니다. |
presto-connector-redshift | Presto redshift.properties 파일의 값을 변경합니다. |
presto-connector-tpch | Presto tpch.properties 파일의 값을 변경합니다. |
presto-connector-tpcds | Presto tpcds.properties 파일의 값을 변경합니다. |
recordserver-env | EMR RecordServer 환경의 값을 변경합니다. |
recordserver-conf | EMR RecordServer의 erver.properties 파일의 값을 변경합니다. |
recordserver-log4j | EMR RecordServer의 log4j.properties 파일의 값을 변경합니다. |
spark | Apache Spark에 대한 Amazon EMR 큐레이트 설정입니다. |
spark-defaults | Spark spark-defaults.conf 파일의 값을 변경합니다. |
spark-env | Spark 환경의 값을 변경합니다. |
spark-hive-site | Spark hive-site.xml 파일의 값을 변경합니다. |
spark-log4j | Spark log4j.properties 파일의 값을 변경합니다. |
spark-metrics | Spark metrics.properties 파일의 값을 변경합니다. |
sqoop-env | Sqoop 환경의 값을 변경합니다. |
sqoop-oraoop-site | Sqoop OraOop oraoop-site.xml 파일의 값을 변경합니다. |
sqoop-site | Sqoop sqoop-site.xml 파일의 값을 변경합니다. |
tez-site | Tez tez-site.xml 파일의 값을 변경합니다. |
yarn-env | YARN 환경의 값을 변경합니다. |
yarn-site | YARN yarn-site.xml 파일의 값을 변경합니다. |
zeppelin-env | Zeppelin 환경의 값을 변경합니다. |
zookeeper-config | ZooKeeper zoo.cfg 파일의 값을 변경합니다. |
zookeeper-log4j | ZooKeeper log4j.properties 파일의 값을 변경합니다. |