PySpark 분석 템플릿을 사용하여 구성된 테이블에서 PySpark 작업 실행 - AWS Clean Rooms

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

PySpark 분석 템플릿을 사용하여 구성된 테이블에서 PySpark 작업 실행

이 절차에서는 콘솔에서 AWS Clean Rooms PySpark 분석 템플릿을 사용하여 사용자 지정 분석 규칙을 사용하여 구성된 테이블을 분석하는 방법을 보여줍니다.

PySpark 분석 템플릿을 사용하여 구성된 테이블에서 PySpark 작업을 실행하려면

에 로그인 AWS Management Console 하고 https://console.aws.amazon.com/cleanrooms AWS Clean Rooms 콘솔을 엽니다.

  1. 왼쪽 탐색 창에서 공동 작업을 선택합니다.

  2. 멤버 기능 상태가 작업 실행인 공동 작업을 선택합니다.

  3. 분석 탭의 테이블 섹션에서 테이블 및 관련 분석 규칙 유형(사용자 지정 분석 규칙)을 확인합니다.

    참고

    목록에 예상한 테이블이 보이지 않는 경우 다음과 같은 이유가 있을 수 있습니다.

  4. 분석 섹션의 분석 모드에서 분석 템플릿 실행을 선택합니다.

  5. 분석 템플릿 드롭다운 목록에서 PySpark 분석 템플릿을 선택합니다.

    PySpark 분석 템플릿의 파라미터는 정의에 자동으로 채워집니다.

  6. (Spark 분석 엔진만 해당) 지원되는 작업자 유형작업자 수를 지정합니다.

    다음 표를 사용하여 사용 사례에 필요한 유형과 수 또는 작업자를 결정합니다.

    작업자 유형 vCPU 메모리(GB) 스토리지(GB) 작업자 수 총 클린룸 처리 단위(CRPU)
    CR.1X(기본값) 4 30 100 4 8
    128 256
    CR.4X 16 120 400 4 32
    32 256
    참고

    작업자 유형과 작업자 수가 다르면 관련 비용이 발생합니다. 요금에 대한 자세한 내용은 AWS Clean Rooms 요금을 참조하세요.

  7. Run(실행)을 선택합니다.

    참고

    결과를 받을 수 있는 구성원이 작업 결과 설정을 구성하지 않은 경우 작업을 실행할 수 없습니다.

  8. 파라미터를 계속 조정하고 작업을 다시 실행하거나 + 버튼을 선택하여 새 탭에서 새 작업을 시작합니다.