使用 PySpark 分析範本在設定的資料表上執行 PySpark 任務 - AWS Clean Rooms

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

使用 PySpark 分析範本在設定的資料表上執行 PySpark 任務

此程序示範如何在 主控台中使用 AWS Clean Rooms PySpark 分析範本,以自訂分析規則來分析設定的資料表。

使用 PySpark 分析範本在設定的資料表上執行 PySpark 任務

登入 AWS Management Console ,並在 https://https://console.aws.amazon.com/cleanrooms 開啟 AWS Clean Rooms 主控台。

  1. 在左側導覽窗格中,選擇協同合作

  2. 選擇具有執行任務成員能力狀態的協同合作。

  3. 分析索引標籤的資料表區段下,檢視資料表及其相關聯的分析規則類型 (自訂分析規則)。

    注意

    如果您沒有在清單中看到預期的資料表,可能是因為下列原因:

  4. 分析區段下,針對分析模式,選取執行分析範本

  5. 從分析範本下拉式清單中選擇 PySpark 分析範本

    PySpark 分析範本中的參數會自動填入定義中。

  6. (僅限 Spark 分析引擎) 指定支援的工作者類型工作者數量

    使用下表來判斷使用案例所需的類型和數量或工作者。

    工作者類型 vCPU 記憶體 (GB) 儲存體 (GB) 工作者數目 無塵室處理單元總數 (CRPU)
    CR.1X (預設) 4 30 100 4 8
    128 256
    CR.4X 16 120 400 4 32
    32 256
    注意

    不同的工作者類型和工作者數量都有相關聯的成本。若要進一步了解 定價,請參閱 AWS Clean Rooms 定價

  7. 選擇執行

    注意

    如果可以接收結果的成員尚未設定任務結果設定,則無法執行任務。

  8. 繼續調整參數並再次執行任務,或選擇 按鈕在新索引標籤中啟動新任務。