本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
使用 PySpark 分析範本在設定的資料表上執行 PySpark 任務
此程序示範如何在 主控台中使用 AWS Clean Rooms PySpark 分析範本,以自訂分析規則來分析設定的資料表。
使用 PySpark 分析範本在設定的資料表上執行 PySpark 任務
登入 AWS Management Console ,並在 https://https://console.aws.amazon.com/cleanrooms
-
在左側導覽窗格中,選擇協同合作。
-
選擇具有執行任務成員能力狀態的協同合作。
-
在分析索引標籤的資料表區段下,檢視資料表及其相關聯的分析規則類型 (自訂分析規則)。
-
在分析區段下,針對分析模式,選取執行分析範本。
-
從分析範本下拉式清單中選擇 PySpark 分析範本。
PySpark 分析範本中的參數會自動填入定義中。
-
(僅限 Spark 分析引擎) 指定支援的工作者類型和工作者數量。
使用下表來判斷使用案例所需的類型和數量或工作者。
工作者類型 vCPU 記憶體 (GB) 儲存體 (GB) 工作者數目 無塵室處理單元總數 (CRPU) CR.1X (預設) 4 30 100 4 8 128 256 CR.4X 16 120 400 4 32 32 256 注意
不同的工作者類型和工作者數量都有相關聯的成本。若要進一步了解 定價,請參閱 AWS Clean Rooms 定價
。 -
選擇執行。
注意
如果可以接收結果的成員尚未設定任務結果設定,則無法執行任務。
-
繼續調整參數並再次執行任務,或選擇 + 按鈕在新索引標籤中啟動新任務。