기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
PySpark 분석 템플릿을 사용하여 구성된 테이블에서 PySpark 작업 실행
이 절차에서는 콘솔에서 AWS Clean Rooms PySpark 분석 템플릿을 사용하여 사용자 지정 분석 규칙을 사용하여 구성된 테이블을 분석하는 방법을 보여줍니다.
PySpark 분석 템플릿을 사용하여 구성된 테이블에서 PySpark 작업을 실행하려면
에 로그인 AWS Management Console 하고 https://console.aws.amazon.com/cleanrooms
-
왼쪽 탐색 창에서 공동 작업을 선택합니다.
-
멤버 기능 상태가 작업 실행인 공동 작업을 선택합니다.
-
분석 탭의 테이블 섹션에서 테이블 및 관련 분석 규칙 유형(사용자 지정 분석 규칙)을 확인합니다.
-
분석 섹션의 분석 모드에서 분석 템플릿 실행을 선택합니다.
-
분석 템플릿 드롭다운 목록에서 PySpark 분석 템플릿을 선택합니다.
PySpark 분석 템플릿의 파라미터는 정의에 자동으로 채워집니다.
-
(Spark 분석 엔진만 해당) 지원되는 작업자 유형과 작업자 수를 지정합니다.
다음 표를 사용하여 사용 사례에 필요한 유형과 수 또는 작업자를 결정합니다.
작업자 유형 vCPU 메모리(GB) 스토리지(GB) 작업자 수 총 클린룸 처리 단위(CRPU) CR.1X(기본값) 4 30 100 4 8 128 256 CR.4X 16 120 400 4 32 32 256 참고
작업자 유형과 작업자 수가 다르면 관련 비용이 발생합니다. 요금에 대한 자세한 내용은 AWS Clean Rooms 요금을
참조하세요. -
Run(실행)을 선택합니다.
참고
결과를 받을 수 있는 구성원이 작업 결과 설정을 구성하지 않은 경우 작업을 실행할 수 없습니다.
-
파라미터를 계속 조정하고 작업을 다시 실행하거나 + 버튼을 선택하여 새 탭에서 새 작업을 시작합니다.