

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# Studio Classic 中的 Amazon SageMaker Experiments
<a name="experiments"></a>

**重要**  
使用 SageMaker Experiments Python SDK 的實驗追蹤僅適用於 Studio Classic。我們建議您使用新的 Studio 體驗，並將最新的 SageMaker AI 整合與 MLflow 搭配使用來建立實驗。Studio Classic 沒有與 MLflow UI 整合。如果您想要將 MLflow 搭配 Studio 使用，您必須使用 AWS CLI啟動 MLflow UI。如需詳細資訊，請參閱[使用 AWS CLI 啟動 MLflow UI](mlflow-launch-ui.md#mlflow-launch-ui-cli)。

Amazon SageMaker Experiments Classic 是 Amazon SageMaker AI 的一項功能，讓您能在 Studio Classic 中建立、管理、分析和比較機器學習實驗。使用 SageMaker Experiments 檢視、管理、分析和比較您以程式設計方式建立的自訂實驗，以及從 SageMaker AI 任務自動建立的實驗。

Experiments Classic 會自動以*執行*追蹤迭代運算的輸入、參數、組態和結果。您可以將這些試驗指派到*實驗*中，並進行分組和整理。SageMaker Experiments 與 Amazon SageMaker Studio Classic 整合，提供視覺化介面，讓您瀏覽進行中和過去的實驗、依關鍵效能指標來比較執行，並找出表現最佳的模型。SageMaker Experiments 可追蹤有關於建立模型的所有步驟和成品，當您在生產環境中對問題進行疑難排解時，或稽核模型以驗證合規性時，可以快速回顧模型的起源。

## 使用 MLflow 從 Experiments Classic 遷移至 Amazon SageMaker AI
<a name="experiments-mlflow-migration"></a>

過去使用 Experiments Classic 建立的實驗仍可在 Studio Classic 中檢視。如果您想要使用 MLflow 維護和使用過去的實驗程式碼，您必須更新訓練程式碼才能使用 MLflow SDK，然後再次執行訓練實驗。如需 MLflow SDK 和 AWS MLflow 外掛程式入門的詳細資訊，請參閱 [將 MLflow 與您的環境整合](mlflow-track-experiments.md)。

# Experiments Classic 的範例筆記本
<a name="experiments-examples"></a>

以下範例筆記本示範如何追蹤各種模型訓練實驗的執行項目。您可以在執行筆記本後利用 Studio Classic 檢視產生的實驗。如需展示 Studio Classic 其他功能的教學課程，請參閱[Amazon SageMaker Studio Classic 導覽](gs-studio-end-to-end.md)。

## 在筆記本環境中追蹤實驗
<a name="experiments-tutorials-notebooks"></a>

若要深入了解如何追蹤筆記本環境中的實驗，請參閱下列範例筆記本：
+ [在本機訓練 Keras 模型時追蹤實驗](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/local_experiment_tracking/keras_experiment.html)
+ [在本機或筆記本中訓練 Pytorch 模型時追蹤實驗](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/local_experiment_tracking/pytorch_experiment.html)

## 使用 SageMaker Clarify 追蹤實驗的偏差和解釋性
<a name="experiments-tutorials-clarify"></a>

如需追蹤實驗偏差和解釋性的逐步指南，請參閱下列範例筆記本：
+ [使用 SageMaker Clarify 取得公平性和解釋性](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/sagemaker_clarify_integration/tracking_bias_explainability.html)

## 使用指令碼模式追蹤 SageMaker 訓練任務的實驗
<a name="experiments-tutorials-scripts"></a>

若需進一步了解如何追蹤 SageMaker 訓練任務的實驗，請參閱下列範例筆記本：
+ [使用 Pytorch 分散式資料平行執行 SageMaker AI 實驗：MNIST 手寫數字分類](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/sagemaker_job_tracking/pytorch_distributed_training_experiment.html)
+ [追蹤實驗，同時使用 SageMaker 訓練任務訓練 Pytorch 模型](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/sagemaker_job_tracking/pytorch_script_mode_training_job.html)
+ [使用 SageMaker 訓練任務來訓練 TensorFlow 模型，並使用 SageMaker Experiments 對其進行追蹤](https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-experiments/sagemaker_job_tracking/tensorflow_script_mode_training_job.html)

# 檢視實驗和執行項目
<a name="experiments-view-compare"></a>

Amazon SageMaker Studio Classic 提供實驗瀏覽器，方便您用來檢視實驗和執行項目的清單。您可以選擇其中一個實體來檢視實體的詳細資訊，或選擇多個實體進行比較。您可以依照實體名稱、類型和標籤篩選實驗清單。

**如要檢視實驗和執行項目**

1. 若要在 Studio Classic 中檢視實驗，請在左側邊欄中，選擇**實驗**。

   選取實驗名稱，即可檢視所有相關的執行項目。您可以直接在**搜尋**列中輸入內容來搜尋實驗，或篩選實驗類型。也可以選擇要在實驗或執行清單中顯示的欄位。

   清單可能需要一點時間才能重新整理並顯示新的實驗或實驗執行項目。您可以按一下**重新整理**以更新頁面。您的實驗清單看起來應與下列類似：  
![\[SageMaker Experiments 使用者介面中的實驗清單\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/experiments-classic/experiments-overview.png)

1. 在實驗清單中，按兩下實驗以列出實驗中執行項目的清單。
**注意**  
根據預設，SageMaker AI 任務和容器自動建立的實驗執行項目會顯示在 Experiments Studio Classic 使用者介面中。如要隱藏 SageMaker AI 任務針對特定實驗所建立的執行項目，請選擇設定圖示 (![\[Black square icon representing a placeholder or empty image.\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/icons/Settings_squid.png)) 並切換**顯示任務**。  
![\[在 SageMaker Experiments 使用者介面中執行的實驗清單\]](http://docs.aws.amazon.com/zh_tw/sagemaker/latest/dg/images/experiments-classic/experiments-runs-overview.png)

1. 按兩下執行項目，即可顯示特定執行項目的資訊。

   在**概觀**窗格中，選擇下列任一標題，以查看每個執行項目可用的資訊：
   + **指標**：在執行期間記錄的指標。
   + **圖表**：建置自己的圖表以比較執行項目。
   + **輸出成品**：執行實驗所產生的任何成品以及成品在 Amazon S3 中的位置。
   + **偏差報告** – 使用 Clarify 所產生的預先訓練或訓練後偏差報告。
   + **解釋性**：使用 Clarify 所產生的解釋性報告。
   + **偵錯**：偵錯工具規則和發現的任何問題之清單。