

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# TabTransformer のハイパーパラメータ
<a name="tabtransformer-hyperparameters"></a>

次の表には、Amazon SageMaker AI TabTransformer アルゴリズムに必要な、または最も一般的に使用されるハイパーパラメータのサブセットが含まれています。ユーザーは、データからモデルパラメータを推定しやすくするために、これらのパラメータを設定します。SageMaker AI TabTransformer アルゴリズムは、オープンソースの [TabTransformer](https://github.com/jrzaurin/pytorch-widedeep) パッケージの実装です。

**注記**  
デフォルトのハイパーパラメータは、[TabTransformer サンプルノートブック](tabtransformer.md#tabtransformer-sample-notebooks) のサンプルデータセットに基づいています。

SageMaker AI TabTransformer アルゴリズムは分類問題のタイプに基づいて評価指標と目標関数を自動的に選択します。TabTransformer アルゴリズムは、データ内のラベル数に基づいて分類問題のタイプを検出します。回帰問題の場合、評価指標は R の二乗、目標関数は平均二乗誤差です。二項分類問題の場合、評価指標と目標関数はどちらも二項交差エントロピーです。多クラス分類問題の場合、評価指標と目標関数はどちらもマルチクラスの交差エントロピーになります。

**注記**  
TabTransformer の評価指標と目標関数は、現在ハイパーパラメータとして使用できません。代わりに、SageMaker AI TabTransformer の組み込みアルゴリズムは、ラベル列の一意の整数の数に基づいて分類タスクのタイプ (回帰、バイナリ、またはマルチクラス) を自動的に検出し、評価指標と目標関数を割り当てます。


| Parameter Name | 説明 | 
| --- | --- | 
| n\$1epochs |  深層ニューラルネットワークをトレーニングするエポック数。 有効な値: 整数、範囲: 正の整数。 デフォルト値: `5`。  | 
| patience |  最後の `patience` ラウンドで 1 つの検証データポイントの 1 つのメトリックが改善されない場合、トレーニングは停止します。 有効な値: 整数、範囲: (`2`, `60`)。 デフォルト値: `10`。  | 
| learning\$1rate |  トレーニング例をバッチごとに処理した後に、モデルのウェイトを更新する頻度。 有効な値: 浮動小数点、範囲: 正の浮動小数点数。 デフォルト値: `0.001`。  | 
| batch\$1size |  ネットワークを通して伝播されたサンプルの数。 有効な値: 整数、範囲: (`1`, `2048`)。 デフォルト値: `256`。  | 
| input\$1dim |  カテゴリ列や連続列をエンコードする埋め込みのディメンション。 有効な値: 文字列、`"16"`、`"32"`、`"64"`、`"128"`、`"256"`、または `"512"` のいずれか。 デフォルト値: `"32"`。  | 
| n\$1blocks |  Transformer エンコーダーのブロック数。 有効な値: 整数、範囲: (`1`, `12`)。 デフォルト値: `4`。  | 
| attn\$1dropout |  マルチヘッドアテンションレイヤーに適用されるドロップアウト率。 有効な値: 浮動小数点、範囲: (`0`, `1`)。 デフォルト値: `0.2`。  | 
| mlp\$1dropout |  エンコーダーレイヤーと Transformer エンコーダー上部の最終 MLP レイヤー内の FeedForward ネットワークに適用されるドロップアウト率。 有効な値: 浮動小数点、範囲: (`0`, `1`)。 デフォルト値: `0.1`。  | 
| frac\$1shared\$1embed |  特定の列について、異なるカテゴリすべてで共有される埋め込みの割合。 有効な値: 浮動小数点、範囲: (`0`, `1`)。 デフォルト値: `0.25`。  | 