

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# TabTransformer 超參數
<a name="tabtransformer-hyperparameters"></a>

下表包含 Amazon SageMaker AI TabTransformer 演算法所需或最常用的超參數子集。使用者設定參數，並用來協助從資料預估模型參數。SageMaker AI TabTransformer 演算法是開放原始碼 [TabTransformer](https://github.com/jrzaurin/pytorch-widedeep) 套件的實作。

**注意**  
預設超參數是根據[TabTransformer 範例筆記本](tabtransformer.md#tabtransformer-sample-notebooks)中的範例資料集。

SageMaker AI TabTransformer 演算法會基於分類問題的類型自動選擇評估指標和目標函式。TabTransformer 演算法會基於資料中的標籤數量來偵測分類問題的類型。對於迴歸問題，評估指標為 R 平方，而目標函式為均方誤差。對於二進制分類問題，評估指標和目標函式皆為是二元交叉熵。對於多類別分類問題，評估指標和目標函式皆為多類別交叉熵。

**注意**  
TabTransformer 評估指標和目標函式目前無法作為超參數使用。相反地，SageMaker AI TabTransformer 內建演算法會基於標籤欄中的唯一整數數量，自動偵測分類任務的類型 (迴歸、二進位或多類別)，並指派評估指標和目標函式。


| 參數名稱 | Description | 
| --- | --- | 
| n\$1epochs |  訓練深度神經網路的週期數量。 有效值：整數，範圍：正整數。 預設值：`5`。  | 
| patience |  如果一個驗證資料點的一個指標在前 `patience` 輪中並未改善，則訓練將停止。 有效值：整數，範圍：(`2`、`60`)。 預設值：`10`。  | 
| learning\$1rate |  完成每批次訓練範例後，模型權重更新的比率。 有效值：浮點，範圍：正浮點數量。 預設值：`0.001`。  | 
| batch\$1size |  透過網路傳播的範例數量。 有效值：整數，範圍：(`1`、`2048`)。 預設值：`256`。  | 
| input\$1dim |  用來編碼分類和/或持續資料欄的內嵌項目維度。 有效值：字串，下列任何一項：(`"16"`、`"32"`、`"64"`、`"128"`、`"256"` 或 `"512"`)。 預設值：`"32"`。  | 
| n\$1blocks |  轉換器編碼器區塊的數量。 有效值：整數，範圍：(`1`、`12`)。 預設值：`4`。  | 
| attn\$1dropout |  套用至多 Head 注意層的退出率。 有效值：浮動、範圍：(`0`, `1`)。 預設值：`0.2`。  | 
| mlp\$1dropout |  套用至於編碼器層內的 FeedForward 網路，以及轉換器編碼器頂部最終 MLP 層的退出率。 有效值：浮點數、範圍：(`0`, `1`)。 預設值：`0.1`。  | 
| frac\$1shared\$1embed |  內嵌項目的分數由一個特定欄的所有不同類別共享。 有效值：浮動、範圍：(`0`, `1`)。 預設值：`0.25`。  | 