

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 調校 NTM 模型
<a name="ntm-tuning"></a>

*自動模型調校*，又稱為超參數調校，會透過在您的資料集上，執行許多測試超參數範圍的任務，來尋找最佳版本的模型。您可以選擇可調校的超參數、每一個超參數的值範圍，及目標指標。您可以從演算法運算的指標中選擇目標指標。自動模型調校會搜尋所選擇的超參數，以找出產生之模型可最佳化目標指標的值組合。

Amazon SageMaker AI NTM 為無監督學習演算法，會學習分散資料的大型集合之潛在表示，例如文件語料庫。潛在表達會使用未經直接測量的推論變數，以在資料集中建立觀察的模型。NTM 自動模型調校有助您找出可將訓練或驗證資料損失降至最低的模型。*訓練損失*可測量模型與訓練資料的適合程度。*驗證損失*可測量模型對未受訓練之資料的普遍化程度。低訓練損失表示模型與訓練資料非常適合。低驗證損失表示模型並未過度擬合訓練資料，因此應該能夠依據未訓練成功的文件建立模型。通常，這兩項損失資料都建議偏低。不過，將訓練損失降至最低時，可能會導致過度擬合並提高驗證損失，這會降低模型的普遍性。

如需模型調校的詳細資訊，請參閱[使用 SageMaker AI 執行自動模型調校](automatic-model-tuning.md)。

## NTM 演算法計算的指標
<a name="ntm-metrics"></a>

NTM 演算法會回報訓練期間計算的單一指標：`validation:total_loss`。總損失為重建損失和 Kullback-Leibler 散度的總和。調校超參數值時，請選擇此指標做為目標。


| 指標名稱 | Description | 最佳化方向 | 
| --- | --- | --- | 
| validation:total\$1loss |  驗證組的總損失  |  最小化  | 

## 可調校 NTM 超參數
<a name="ntm-tunable-hyperparameters"></a>

您可以調校 NTM 演算法的下列超參數。通常，將 `mini_batch_size` 和 `learning_rate` 設為較小的值可降低驗證損失，但可能需要更長的訓練時間。低驗證損失不一定能比人為轉譯產生更多連貫主題。其他超參數對訓練和驗證損失的影響可能因資料集而異。若要查看哪些值相容，請參閱[NTM 超參數](ntm_hyperparameters.md)。


| 參數名稱 | 參數類型 | 建議範圍 | 
| --- | --- | --- | 
| encoder\$1layers\$1activation |  CategoricalParameterRanges  |  ['sigmoid', 'tanh', 'relu']  | 
| learning\$1rate |  ContinuousParameterRange  |  MinValue：1e-4、MaxValue：0.1  | 
| mini\$1batch\$1size |  IntegerParameterRanges  |  MinValue：16、MaxValue：2048  | 
| optimizer |  CategoricalParameterRanges  |  ['sgd', 'adam', 'adadelta']  | 
| rescale\$1gradient |  ContinuousParameterRange  |  MinValue：0.1、MaxValue：1.0  | 
| weight\$1decay |  ContinuousParameterRange  |  MinValue：0.0、MaxValue：1.0  | 