

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# Data Wrangler 中的資料處理運作方式
<a name="canvas-data-processing"></a>

在 Amazon SageMaker Data Wrangler 資料流程中以互動方式使用資料時，Amazon SageMaker Canvas 只會將轉換套用至範例資料集，供您預覽。在 SageMaker Canvas 中完成您的資料流程後，您可以處理所有資料，並將其儲存在適合機器學習工作流程的位置。

在 Data Wrangler 中完成您的資料轉換之後，有幾個繼續操作的選項：
+ [建立模型](canvas-processing-export-model.md)。您可以建立 Canvas 模型，您可以在其中開始使用準備好的資料直接建立模型。您可以在處理整個資料集之後建立模型，或透過僅匯出您在 Data Wrangler 中使用的範例資料來建立模型。Canvas 會將您處理的資料 (整個資料集或範例資料) 儲存為 Canvas 資料集。

  我們建議您使用範例資料進行快速迭代，但建議您在想要訓練最終模型時使用整個資料。建置表格式模型時，大於 5 GB 的資料集會自動將取樣大小縮減至 5 GB，而對於時間序列預測模型，大於 30 GB 的資料集則會取樣大小縮減至 30 GB。

  若要進一步了解建立模型，請參閱[自訂模型的運作方式](canvas-build-model.md)。
+ [匯出資料](canvas-export-data.md)。您可以匯出資料以用於機器學習工作流程。當您選擇匯出資料時，您有幾個選項：
  + 您可以將 Canvas 應用程式中的資料儲存為資料集。如需 Canvas 資料集支援之檔案類型的詳細資訊，以及將資料匯入至 Canvas 時的其他要求，請參閱[建立資料集](canvas-import-dataset.md)。
  + 您可以將資料儲存至 Amazon S3。根據 Canvas 記憶體可用性，您的資料會在應用程式中處理，然後匯出至 Amazon S3。如果您的資料集大小超過 Canvas 可以處理的大小，則根據預設，Canvas 會使用 EMR Serverless 任務來擴展至多個運算執行個體、處理完整資料集，並將其匯出至 Amazon S3。您也可以手動設定 SageMaker Processing 處理任務，以更精細地控制用來處理資料的運算資源。
+ [匯出資料流程](canvas-export-data-flow.md)。您可能想要儲存資料流程的程式碼，以便在 Canvas 外部修改或執行轉換。Canvas 可讓您選擇將資料流程轉換儲存為 Jupyter 筆記本中的 Python 程式碼，然後匯出至 Amazon S3 以供在機器學習工作流程的其他位置使用。

當您從資料流程匯出資料並將其儲存為 Canvas 資料集或儲存至 Amazon S3 時，Canvas 會在您的資料流程中建立新的目的地節點，這是顯示已處理資料存放位置的最終節點。如果您想要執行多個匯出操作，您可以將其他目的地節點新增至流程。例如，您可以從資料流程中的不同點匯出資料，以僅套用部分轉換，也可以將轉換的資料匯出至不同的 Amazon S3 位置。如需如何新增或編輯目的地節點的詳細資訊，請參閱[新增目的地節點](canvas-destination-nodes-add.md)和[編輯目的地節點](canvas-destination-nodes-edit.md)。

如需使用 Amazon EventBridge 設定排程，以根據排程自動處理和匯出資料的詳細資訊，請參閱[建立自動處理新資料的排程](canvas-data-export-schedule-job.md)。

# 匯出以建立模型
<a name="canvas-processing-export-model"></a>

只要從資料流程按幾下滑鼠，您就可以匯出轉換的資料，並開始在 Canvas 中建立 ML 模型。Canvas 會將您的資料儲存為 Canvas 資料集，而且系統會將您帶至新模型的模型建置組態頁面。

若要使用轉換的資料建立 Canvas 模型：

1. 導覽至您的資料流程。

1. 選擇您要匯出的節點旁的省略符號圖示。

1. 從內容功能表中，選擇**建立模型**。

1. 在**匯出以建立模型**側邊面板中，輸入新資料集的**資料集名稱**。

1. 保持選取**處理整個資料集**選項，以處理和匯出您的整個資料集，然後繼續建置模型。關閉此選項，使用您在資料流程中使用的互動範例資料來訓練模型。

1. 輸入**模型名稱**以命名新模型。

1. 選取**問題類型**，或您要建置的模型類型。如需 SageMaker Canvas 支援之執行個體類型的詳細資訊，請參閱[自訂模型的運作方式](canvas-build-model.md)。

1. 選取**目標欄**，或您希望模型預測的值。

1. 選擇**匯出並建立模型**。

新 Canvas 模型的**建置**索引標籤應開啟，而且您可以完成模型的設定和訓練。如需建置模型的詳細資訊，請參閱[建立模型](canvas-build-model-how-to.md)。

# 匯出資料
<a name="canvas-export-data"></a>

匯出資料，將來自資料流程的轉換套用至完整匯入的資料集。您可以將資料流程中的任何節點匯出至下列位置：
+ SageMaker Canvas 資料集
+ Amazon S3

如果您想要在 Canvas 中訓練模型，您可以將完整轉換的資料集匯出為 Canvas 資料集。如果您想要在 SageMaker Canvas 外部的機器學習工作流程中使用轉換的資料，您可以將資料集匯出至 Amazon S3。

## 匯出至 Canvas 資料集
<a name="canvas-export-data-canvas"></a>

使用下列程序從資料流程中的節點匯出 SageMaker Canvas 資料集。

**將流程中的節點匯出為 SageMaker Canvas 資料集**

1. 導覽至您的資料流程。

1. 選擇您要匯出的節點旁的省略符號圖示。

1. 在內容功能表中，將滑鼠懸停在**匯出**上方，然後選取**將資料匯出至 Canvas 資料集**。

1. 在**匯出至 Canvas 資料集**側邊面板中，輸入新資料集的**資料集名稱**。

1. 如果您想要 SageMaker Canvas 處理和儲存完整的資料集，請保持選取**處理整個資料集**選項。關閉此選項只會將轉換套用至您在資料流程中使用的範例資料。

1. 選擇 **Export** (匯出)。

您現在應該能夠前往 Canvas 應用程式的**資料集**頁面，並查看新的資料集。

## 匯出至 Amazon S3
<a name="canvas-export-data-s3"></a>

將您的資料匯出至 Amazon S3 時，您可以擴展以轉換和處理任何大小的資料。如果應用程式的記憶體可以處理資料集的大小，Canvas 會自動在本機處理您的資料。如果您的資料集大小超過 5 GB 的本機記憶體容量，則 Canvas 會代表您啟動遠端任務，以佈建其他運算資源並更快速地處理資料。根據預設，Canvas 會使用 Amazon EMR Serverless 來執行這些遠端任務。不過，您可以手動設定 Canvas 以使用 EMR Serverless 或 SageMaker Processing 任務搭配您自己的設定。

**注意**  
執行 EMR Serverless 任務時，該任務預設會繼承 Canvas 應用程式的 IAM 角色、KMS 金鑰設定和標籤。

以下摘要說明 Canvas 中遠端任務的選項：
+ **EMR Serverless**：這是 Canvas 用於遠端任務的預設選項。EMR Serverless 會自動佈建和擴展運算資源以處理您的資料，讓您不必擔心為工作負載選擇正確的運算資源。如需 EMR Serverless 的詳細資訊，請參閱 [EMR Serverless 使用者指南](https://docs.aws.amazon.com/emr/latest/EMR-Serverless-UserGuide/emr-serverless.html)。
+ **SageMaker Processing**：SageMaker Processing 任務提供更進階選項，並精細控制用來處理資料的運算資源。例如，您可以指定運算執行個體的類型和計數、在您自己的 VPC 中設定任務，以及控制網路存取、自動化處理任務等。如需自動處理任務的詳細資訊，請參閱[建立自動處理新資料的排程](canvas-data-export-schedule-job.md)。如需 SageMaker 處理任務的更多一般資訊，請參閱[使用 SageMaker Processing 的資料轉換工作負載](processing-job.md)。

匯出至 Amazon S3 時支援下列檔案類型：
+ CSV
+ Parquet

若要開始使用，請檢閱下列先決條件。

### EMR Serverless 任務的先決條件
<a name="canvas-export-data-emr-prereqs"></a>

若要建立使用 EMR Serverless 資源的遠端任務，您必須擁有必要的許可。您可以透過 Amazon SageMaker AI 網域或使用者設定檔設定授予許可，也可以手動設定使用者的 IAM AWS 角色。如需如何授予使用者執行大型資料處理之許可的指示，請參閱[授予使用者在整個 ML 生命週期使用大型資料的許可](canvas-large-data-permissions.md)。

如果您不想要設定這些政策，但仍需要透過 Data Wrangler 處理大型資料集，您也可以使用 SageMaker Processing 任務。

使用下列程序將您的資料匯出至 Amazon S3。若要設定遠端任務，請遵循選用的進階步驟。

**將流程中的節點匯出至 Amazon S3**

1. 導覽至您的資料流程。

1. 選擇您要匯出的節點旁的省略符號圖示。

1. 在內容功能表中，將滑鼠懸停在**匯出**上方，然後選取**將資料匯出至 Amazon S3**。

1. 在**匯出至 Amazon S3** 側邊面板中，您可以變更新資料集的**資料集名稱**。

1. 針對 **S3 位置**，輸入您要將資料集匯出至其中的 Amazon S3 位置。您可以輸入 S3 位置或 S3 存取點的 S3 URI、別名或 ARN。如需存取點的詳細資訊，請參閱《Amazon S3 使用者指南》**中的[使用 Amazon S3 Access Points 管理資料存取](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html)。

1. (選用) 針對**進階設定**，指定下列欄位的值：

   1. **檔案類型** - 所匯出資料的檔案格式。

   1. **分隔符號** - 用來分隔檔案中值的分隔符號。

   1. **壓縮** - 用來減少檔案大小的壓縮方法。

   1. **分割區數量** - Canvas 寫入為任務輸出的資料集檔案數量。

   1. **選擇資料欄** - 您可以從資料中選擇要包含在分割區中的資料欄子集。

1. 如果您想要 Canvas 將資料流程轉換套用至整個資料集並匯出結果，請保留選取的**處理整個資料集**選項。如果您取消選取此選項，Canvas 只會將轉換套用至互動式 Data Wrangler 資料流程中所使用的資料集範例。
**注意**  
如果您只匯出資料的範例，Canvas 會在應用程式中處理您的資料，而且不會為您建立遠端任務。

1. 如果您想要 Canvas 自動判定要使用 Canvas 應用程式記憶體還是 EMR Serverless 任務執行任務，請保留選取的**自動任務組態**選項。如果您取消選取此選項並手動設定任務，則可以選擇使用 EMR Serverless 或 SageMaker 處理任務。如需如何設定 EMR Serverless 或 SageMaker Processing 任務的指示，請在匯出您的資料之前參閱此程序後的一節。

1. 選擇 **Export** (匯出)。

下列程序說明如何在將完整資料集匯出至 Amazon S3 時，手動設定 EMR Serverless 或 SageMaker 處理的遠端任務設定。

------
#### [ EMR Serverless ]

若要在匯出至 Amazon S3 時設定 EMR Serverless 任務，請執行下列動作：

1. 在 [匯出至 Amazon S3] 側邊面板中，關閉**自動任務組態**選項。

1. 選取 **EMR Serverless**。

1. 針對 **任務名稱**，輸入 EMR Serverless 任務的名稱。名稱可以包含字母、數字、連字號和底線。

1. 針對 **IAM 角色**，輸入使用者的 IAM 執行角色。此角色應具備執行 EMR Serverless 應用程式所需的許可。如需詳細資訊，請參閱[授予使用者在整個 ML 生命週期使用大型資料的許可](canvas-large-data-permissions.md)。

1. （選用） 對於 **KMS 金鑰**，指定 的金鑰 ID 或 ARN AWS KMS key 來加密任務日誌。如果您未輸入金鑰，Canvas 會使用 EMR Serverless 的預設金鑰。

1. (選用) 針對**監控組態**，輸入您要日誌發佈至其中的 Amazon CloudWatch Logs 日誌群組名稱。

1. (選用) 針對**標籤**，將中繼資料標籤新增至由金鑰/值對組成的 EMR Serverless 任務。這些標籤可以用來分類和搜尋任務。

1. 選擇 **Export** (匯出)，啟動工作。

------
#### [ SageMaker Processing ]

若要在匯出至 Amazon S3 時設定 SageMaker 處理任務，請執行下列動作：

1. 在**匯出至 Amazon S3** 側邊面板中，關閉**自動任務組態**選項。

1. 選取 **SageMaker 處理**。

1. 針對**任務名稱**，輸入 SageMaker AI 處理任務的名稱。

1. 針對**執行個體類型**，選取要執行處理任務的運算執行個體類型。

1. 針對**執行個體計數**，指定要啟動的執行個體數量。

1. 針對 **IAM 角色**，輸入使用者的 IAM 執行角色。此角色應具必要的許可，讓 SageMaker AI 可以代表您建立和執行處理任務。如果您將 [AmazonSageMakerFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerFullAccess.html) 政策連接到 IAM 角色，則會授予這些許可。

1. 針對**磁碟區大小**，輸入連接至每個處理執行個體的 ML 儲存磁碟區的儲存大小，以 GB 為單位。根據預期的輸入和輸出資料大小選擇大小。

1. (選用) 針對**磁碟區 KMS 金鑰**，指定 KMS 金鑰來加密儲存磁碟區。如果未指定金鑰，則會使用預設的 Amazon EBS 加密金鑰。

1. (選用) 針對 **KMS 金鑰**，指定 KMS 金鑰來加密處理任務所使用的輸入和輸出 Amazon S3 資料來源。

1. (選用) 針對 **Spark 記憶體組態**，執行下列動作：

   1. 針對處理任務協調和排程的 Spark 驅動程式節點，輸入 **驅動程式記憶體 (以 MB 為單位)**。

   1. 針對在任務中執行個別任務的 Spark 執行器節點，輸入**執行器記憶體 (以 MB 為單位)**。

1. (選用) 針對 **網路組態**，執行下列動作：

   1. 針對**子網路組態**，輸入要在其中啟動處理執行個體的 VPC 子網路 ID。根據預設，任務會使用預設 VPC 的設定。

   1. 針對**安全群組組態**，輸入安全群組 ID，以控制傳入和傳出連線規則。

   1. 開啟**啟用容器間流量加密**選項，以在任務期間加密處理容器之間的網路通訊。

1. (選用) 針對**關聯排程**，您可以選擇建立 Amazon EventBridge 排程，讓處理任務定期執行。選擇**建立新排程**並填寫對話方塊。如需填寫本節並依排程執行處理任務的詳細資訊，請參閱[建立自動處理新資料的排程](canvas-data-export-schedule-job.md)。

1. (選用) 將**標籤**新增為金鑰值對，以便您可以分類和搜尋處理任務。

1. 選擇**匯出**以啟動處理任務。

------

匯出您的資料後，您應該會在指定的 Amazon S3 位置找到完全處理的資料集。

# 匯出資料流程
<a name="canvas-export-data-flow"></a>

匯出資料流程會轉譯您在 Data Wrangler 中執行的操作，並將其匯出至 Python 程式碼的 Jupyter 筆記本，您可以加以修改和執行。這有助於將資料轉換的程式碼整合到機器學習管道。

您可以選擇資料流程中的任何資料節點並將其匯出。匯出資料節點會匯出節點所代表的轉換，以及其先前的轉換。

**將資料流程匯出為 Jupyter 筆記本**

1. 導覽至您的資料流程。

1. 選擇您要匯出的節點旁邊的省略符號。

1. 在內容功能表中，將滑鼠懸停在**匯出**上方，然後將滑鼠懸停在**透過 Jupyter 筆記本匯出**上方。

1. 選擇下列其中一項：
   + **SageMaker Pipelines**
   + **Amazon S3**
   + **SageMaker AI 推論管道**
   + **SageMaker AI Feature Store**
   + **Python 程式碼**

1. **將資料流程匯出為筆記本**對話方塊隨即開啟。選擇下列其中之一：
   + **下載本機副本**
   + **匯出至 S3 位置**

1. 如果您選取了**匯出至 S3 位置**，請輸入您要將筆記本匯出至其中的 Amazon S3 位置。

1. 選擇 **Export** (匯出)。

您的 Jupyter 筆記本應該下載到您的本機電腦，或者您可以發現它儲存在您指定的 Amazon S3 位置。

# 新增目的地節點
<a name="canvas-destination-nodes-add"></a>

SageMaker Canvas 中的目的地節點指定要存放已處理和轉換資料的位置。當您選擇將轉換的資料匯出至 Amazon S3 時，Canvas 會使用指定的目的地節點位置，套用您在資料流程中設定的所有轉換。如需將任務匯出至 Amazon S3 的詳細資訊，請參閱上一節[匯出至 Amazon S3](canvas-export-data.md#canvas-export-data-s3)。

根據預設，選擇將您的資料匯出至 Amazon S3 會將目的地節點新增至您的資料流程。不過，您可以將多個目的地節點新增至流程，讓您可以同時將資料的不同轉換或變化集匯出至不同的 Amazon S3 位置。例如，您可以建立一個在套用所有轉換後匯出資料的目的地節點，以及另一個只在特定初始轉換之後匯出資料的目的地節點，例如聯結操作。此彈性可讓您針對各種使用案例，將轉換資料的不同版本或子集匯出和存放於不同的 S3 位置。

使用下列程序，將目的地節點新增至資料流程。

**新增目的地節點**

1. 導覽至您的資料流程。

1. 選擇您要將目的地節點放置在其中的節點旁邊的省略符號圖示。

1. 在內容功能表中，將滑鼠懸停在**匯出**上方，然後選取**新增目的地**。

1. 在**匯出目的地**側邊面板中，輸入**資料集名稱**以命名輸出。

1. 針對 **Amazon S3 位置**，輸入您要將輸出匯出至其中的 Amazon S3 位置。您可以輸入 S3 位置或 S3 存取點的 S3 URI、別名或 ARN。如需存取點的詳細資訊，請參閱《Amazon S3 使用者指南》**中的[使用 Amazon S3 Access Points 管理資料存取](https://docs.aws.amazon.com/AmazonS3/latest/userguide/access-points.html)。

1. 針對**匯出設定**，指定下列欄位：

   1. **檔案類型** - 所匯出資料的檔案格式。

   1. **分隔符號** - 用來分隔檔案中值的分隔符號。

   1. **壓縮** - 用來減少檔案大小的壓縮方法。

1. 針對**分割**，指定下列欄位：

   1. **分割區數量** - SageMaker Canvas 寫入為任務輸出的資料集檔案數量。

   1. **選擇資料欄** - 您可以從資料中選擇要包含在分割區中的資料欄子集。

1. 如果您想要直接將目的地節點新增至資料流程，請選擇**新增**，或者如果您想要新增節點並啟動匯出任務，請選擇**新增**，然後選擇**匯出**。

您現在應該會在流程中看到新的目的地節點。

# 編輯目的地節點
<a name="canvas-destination-nodes-edit"></a>

Amazon SageMaker Canvas 資料流程中的*目的地節點*會指定其中存放已處理和轉換資料的 Amazon S3 位置，同時套用資料流程中所有設定的轉換。您可以編輯現有目的地節點的組態，然後選擇重新執行任務以覆寫所指定 Amazon S3 位置中的資料。如需新增目的地節點的詳細資訊，請參閱[新增目的地節點](canvas-destination-nodes-add.md)。

使用下列程序來編輯資料流程中的目的地節點，並啟動匯出任務。

**編輯目的地節點**

1. 導覽至您的資料流程。

1. 選擇您要編輯的目的地節點旁邊的省略符號圖示。

1. 在內容功能表中，選擇**編輯**。

1. **編輯目的地**側邊面板隨即開啟。從這個面板中，您可以編輯詳細資訊，例如資料集名稱、Amazon S3 位置，以及匯出和分割設定。

1. (選用) 在**要匯出的其他節點**中，您可以選取更多要在執行匯出任務時處理的目的地節點。

1. 如果您想要 Canvas 將資料流程轉換套用至整個資料集並匯出結果，請保留選取的**處理整個資料集**選項。如果您取消選取此選項，Canvas 只會將轉換套用至互動式 Data Wrangler 資料流程中所使用的資料集範例。

1. 如果您想要 Canvas 自動判定要使用 Canvas 應用程式記憶體還是 EMR Serverless 任務執行任務，請保留選取的**自動任務組態**選項。如果您取消選取此選項並手動設定任務，則可以選擇使用 EMR Serverless 或 SageMaker 處理任務。如需如何設定 EMR Serverless 或 SageMaker 處理任務的指示，請參閱上一節[匯出至 Amazon S3](canvas-export-data.md#canvas-export-data-s3)。

1. 完成變更後，選擇**更新**。

儲存目的地節點組態的變更不會自動重新執行任務或覆寫已處理和匯出的資料。重新匯出您的資料，以使用新組態執行任務。如果您決定使用任務再次匯出資料，Canvas 會使用更新的目的地節點組態，將資料轉換和輸出至指定的位置，覆寫任何現有的資料。

# 建立自動處理新資料的排程
<a name="canvas-data-export-schedule-job"></a>

**注意**  
下節僅適用於 SageMaker 處理任務。如果您使用預設的 Canvas 設定或 EMR Serverless 來建立遠端任務，以將轉換套用至完整資料集，則本節不適用。

如果您要定期處理資料，則可以建立排程以自動執行處理任務。例如您可以建立排程，在獲得新資料時自動執行處理任務。如需處理任務的詳細資訊，請參閱[匯出至 Amazon S3](canvas-export-data.md#canvas-export-data-s3)。

建立任務時，必須指定一個 IAM 角色，具備建立該任務的許可。您可以使用 [AmazonSageMakerCanvasDataPrepFullAccess](https://docs.aws.amazon.com/aws-managed-policy/latest/reference/AmazonSageMakerCanvasDataPrepFullAccess.html) 政策來新增許可。

將下列信任政策新增至角色，以便 EventBridge 加以採用。

```
{
    "Effect": "Allow",
    "Principal": {
        "Service": "events.amazonaws.com"
    },
    "Action": "sts:AssumeRole"
}
```

**重要**  
當您建立排程時，Data Wrangler 會在 EventBridge 中建立一個 `eventRule`。您建立的事件規則和用於執行處理任務的執行個體都會產生費用。  
如需 EventBridge 定價的詳細資訊，請參閱 [Amazon EventBridge 定價](https://aws.amazon.com/eventbridge/pricing/)。有關處理任務定價的資訊，請參閱 [Amazon SageMaker 定價](https://aws.amazon.com/sagemaker/pricing/)。

您可以使用以下其中一個方法建立排程：
+ [Cron 表達式](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-create-rule-schedule.html)
**注意**  
Data Wrangler 不支援以下表達式：  
LW \$1
天的縮寫
月的縮寫
+ [Rate 表達式](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-create-rule-schedule.html#eb-rate-expressions)
+ 週期性 — 設定每小時或每日執行任務的間隔。
+ 指定時間 — 設定執行任務的特定日期和時間。

下列各節提供在[將資料匯出至 Amazon S3](canvas-export-data.md#canvas-export-data-s3) 時，於填寫 SageMaker AI 處理任務設定時排程任務的程序。下列所有指示都從 SageMaker 處理任務設定的**關聯排程**區段開始。

------
#### [ CRON ]

使用下列程序建立包含 CRON 表達式的排程。

1. 在**匯出至 Amazon S3** 側邊面板中，確定您已關閉**自動任務組態**切換，並已選取 **SageMaker 處理**選項。

1. 在 **SageMaker 處理**任務設定中，開啟**關聯排程**區段，然後選擇**建立新排程**。

1. **建立新排程**對話方塊隨即開啟。針對**排程名稱**，請指定排程的名稱。

1. 針對**執行頻率**，請選擇 **CRON**。

1. 針對每個**分鐘**、**小時**、**當月日期**、**月**和**星期幾**欄位，輸入有效的 CRON 表達式值。

1. 選擇**建立**。

1. (選用) 選擇**新增另一個排程**，在另一個排程執行任務。
**注意**  
您最多可以關聯兩個排程。這些排程是獨立的，除非時間重疊，否則不會相互影響。

1. 選擇下列其中一項：
   + **立即排程並執行** - 任務會立即執行，之後按排程執行。
   + **僅限排程** - 任務只會按您指定的排程執行。

1. 在完成其餘匯出任務設定之後，請選擇**匯出**。

------
#### [ RATE ]

使用下列程序建立包含 RATE 表達式的排程。

1. 在**匯出至 Amazon S3** 側邊面板中，確定您已關閉**自動任務組態**切換，並已選取 **SageMaker 處理**選項。

1. 在 **SageMaker 處理**任務設定中，開啟**關聯排程**區段，然後選擇**建立新排程**。

1. **建立新排程**對話方塊隨即開啟。針對**排程名稱**，請指定排程的名稱。

1. 針對**執行頻率**，請選擇 **Rate**。

1. 針對**值**，請指定整數。

1. 針對**單位**，請選擇下列項目之一：
   + **分鐘**
   + **小時**
   + **天**

1. 選擇**建立**。

1. (選用) 選擇**新增另一個排程**，在另一個排程執行任務。
**注意**  
您最多可以關聯兩個排程。這些排程是獨立的，除非時間重疊，否則不會相互影響。

1. 選擇下列其中一項：
   + **立即排程並執行** - 任務會立即執行，之後按排程執行。
   + **僅限排程** - 任務只會按您指定的排程執行。

1. 在完成其餘匯出任務設定之後，請選擇**匯出**。

------
#### [ Recurring ]

請使用下列程序來建立週期性基礎的任務執行排程。

1. 在**匯出至 Amazon S3** 側邊面板中，確定您已關閉**自動任務組態**切換，並已選取 **SageMaker 處理**選項。

1. 在 **SageMaker 處理**任務設定中，開啟**關聯排程**區段，然後選擇**建立新排程**。

1. **建立新排程**對話方塊隨即開啟。針對**排程名稱**，請指定排程的名稱。

1. 針對**執行頻率**，選擇**週期性**。

1. 針對**每 x 小時**，請指定任務在一天中執行的小時頻率。有效值是 **1** 與 **23** 之包含範圍內的整數。

1. 針對**在這些日子**，選擇以下其中一個選項：
   + **每天**
   + **週末**
   + **平日**
   + **選擇天數**

   1. (選用) 如果您已選取**選取天數**，請選擇一週中的哪幾天要執行任務。
**注意**  
排程會每天重設一次。如果您將任務排定為每五個小時執行一次，則它會在一天的下列時間執行：  
00：00
05：00
10：00
15：00
20：00

1. 選擇**建立**。

1. (選用) 選擇**新增另一個排程**，在另一個排程執行任務。
**注意**  
您最多可以關聯兩個排程。這些排程是獨立的，除非時間重疊，否則不會相互影響。

1. 選擇下列其中一項：
   + **立即排程並執行** - 任務會立即執行，之後按排程執行。
   + **僅限排程** - 任務只會按您指定的排程執行。

1. 在完成其餘匯出任務設定之後，請選擇**匯出**。

------
#### [ Specific time ]

請使用下列程序來建立在指定時間執行任務的排程。

1. 在**匯出至 Amazon S3** 側邊面板中，確定您已關閉**自動任務組態**切換，並已選取 **SageMaker 處理**選項。

1. 在 **SageMaker 處理**任務設定中，開啟**關聯排程**區段，然後選擇**建立新排程**。

1. **建立新排程**對話方塊隨即開啟。針對**排程名稱**，請指定排程的名稱。

1. 針對**執行頻率**，選擇**開始時間**。

1. 針對**開始時間**，以 UTC 格式輸入時間 (例如，**09:00**)。開始時間預設為您所在的時區。

1. 針對**在這些日子**，選擇以下其中一個選項：
   + **每天**
   + **週末**
   + **平日**
   + **選擇天數**

   1. (選用) 如果您已選取**選取天數**，請選擇一週中的哪幾天要執行任務。

1. 選擇**建立**。

1. (選用) 選擇**新增另一個排程**，在另一個排程執行任務。
**注意**  
您最多可以關聯兩個排程。這些排程是獨立的，除非時間重疊，否則不會相互影響。

1. 選擇下列其中一項：
   + **立即排程並執行** - 任務會立即執行，之後按排程執行。
   + **僅限排程** - 任務只會按您指定的排程執行。

1. 在完成其餘匯出任務設定之後，請選擇**匯出**。

------

您可以使用 SageMaker AI AWS 管理主控台 來檢視排程執行的任務。您的處理任務會在 Pipelines 內執行。每個處理任務都有自己的管道。它的運作方式為管道內的處理步驟。您可以檢視您在管道中建立的排程。如需在檢視管道更多資訊，請參閱[檢視管道的詳細資訊](pipelines-studio-list.md)。

使用下列程序來檢視您已排定的任務。

若要檢視您已排定的任務，請執行下列操作。

1. 開啟 Amazon SageMaker Studio Classic。

1. 開啟管道

1. 檢視您已建立之任務管道。

   執行任務的管道字首會使用任務名稱。例如，如果您已建立名為 `housing-data-feature-enginnering` 的任務，則管道的名稱為 `canvas-data-prep-housing-data-feature-engineering`。

1. 選擇包含任務的管道。

1. 檢視管道的狀態。**狀態**為**成功**的管道表示已成功執行處理任務。

若要停止執行處理任務，請執行下列動作：

若要停止執行處理任務，請刪除指定排程的事件規則。刪除事件規則會停止執行與該排程相關聯的所有任務。如需刪除規則的相關資訊，請參閱[停用或刪除 Amazon EventBridge 規則](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-delete-rule.html)。

您也可以停止和刪除與排程相關聯的管道。如需停止管道的相關資訊，請參閱 [StopPipelineExecution](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_StopPipelineExecution.html)。如需刪除管道的相關資訊，請參閱 [DeletePipeline](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DeletePipeline.html#API_DeletePipeline_RequestSyntax)。