翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
PySpark 分析テンプレートを使用して設定済みテーブルで PySpark ジョブを実行する
この手順では、コンソールで AWS Clean Rooms PySpark 分析テンプレートを使用して、カスタム分析ルールで設定済みテーブルを分析する方法を示します。
PySpark 分析テンプレートを使用して設定済みテーブルで PySpark ジョブを実行するには
にサインイン AWS Management Console し、https://console.aws.amazon.com/cleanrooms
-
左のナビゲーションペインで、[コラボレーション] を選択します。
-
メンバーの能力ステータスが Run jobs のコラボレーションを選択します。
-
分析タブのテーブルセクションで、テーブルと関連する分析ルールタイプ (カスタム分析ルール) を表示します。
-
分析セクションの分析モード で、分析テンプレートの実行 を選択します。
-
分析テンプレートドロップダウンリストから PySpark 分析テンプレートを選択します。
PySpark 分析テンプレートのパラメータは、 定義に自動的に入力されます。
-
(Spark 分析エンジンのみ) サポートされているワーカータイプとワーカー数を指定します。
次の表を使用して、ユースケースに必要なタイプと数、またはワーカーを決定します。
ワーカータイプ vCPU メモリ (GB) ストレージ (GB) ワーカー数 クリーンルーム処理ユニットの合計 (CRPU) CR.1X (デフォルト) 4 30 100 4 8 128 256 CR.4X 16 120 400 4 32 32 256 注記
ワーカータイプとワーカー数が異なると、関連するコストが発生します。料金の詳細については、「 AWS Clean Rooms の料金
」を参照してください。 -
[Run] (実行) を選択します。
注記
結果を受け取ることができるメンバーがジョブ結果の設定を行っていない場合、ジョブを実行することはできません。
-
パラメータを調整してジョブを再度実行するか、+ ボタンを選択して新しいタブで新しいジョブを開始します。