

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# TabTransformer 超参数
<a name="tabtransformer-hyperparameters"></a>

下表包含 Amazon A SageMaker I TabTransformer 算法所需或最常用的超参数子集。用户可以设置这些参数，以便于从数据中估算模型参数。A SageMaker I TabTransformer 算法是开源[TabTransformer](https://github.com/jrzaurin/pytorch-widedeep)软件包的实现。

**注意**  
默认超参数基于 [TabTransformer 样本笔记本](tabtransformer.md#tabtransformer-sample-notebooks)中的示例数据集。

A SageMaker I TabTransformer 算法根据分类问题的类型自动选择评估指标和目标函数。该 TabTransformer 算法根据数据中的标签数量来检测分类问题的类型。对于回归问题，评估指标为 r 平方，目标函数为均方误差。对于二元分类问题，评估指标和目标函数都是二元交叉熵。对于多元分类问题，评估指标和目标函数都是二元交叉熵。

**注意**  
 TabTransformer 评估指标和目标函数目前不能作为超参数使用。相反， SageMaker AI TabTransformer 内置算法会根据标签列中唯一整数的数量自动检测分类任务的类型（回归、二进制或多类），并分配评估指标和目标函数。


| 参数名称 | 说明 | 
| --- | --- | 
| n\$1epochs |  训练深度神经网络的纪元数。 有效值：整数，范围：正整数。 默认值：`5`。  | 
| patience |  如果在过去的 `patience` 轮中，某个验证数据点的某个指标没有改善，则训练将停止。 有效值：整数，范围：（`2`，`60`）。 默认值：`10`。  | 
| learning\$1rate |  完成每批训练样本后，更新模型权重的速率。 有效值：浮点型，范围：正浮点数。 默认值：`0.001`。  | 
| batch\$1size |  通过网络传播的示例数量。 有效值：整数，范围：(`1`, `2048`)。 默认值：`256`。  | 
| input\$1dim |  用于对类别和/或连续列进行编码的嵌入的维度。 有效值：字符串，以下任意值：`"16"`、`"32"`、`"64"`、`"128"`、`"256"` 或 `"512"`。 默认值：`"32"`。  | 
| n\$1blocks |  转换器编码器块的数量。 有效值：整数，范围：(`1`, `12`)。 默认值：`4`。  | 
| attn\$1dropout |  应用于多头注意力层的丢弃比率。 有效值：浮点型，范围：（`0`，`1`）。 默认值：`0.2`。  | 
| mlp\$1dropout |  应用于编码器层内的 FeedForward 网络以及变压器编码器上方的最终 MLP 层的掉线率。 有效值：浮点型，范围：（`0`，`1`）。 默认值：`0.1`。  | 
| frac\$1shared\$1embed |  一个特定列的所有不同类别共享的嵌入的比例。 有效值：浮点型，范围：（`0`，`1`）。 默认值：`0.25`。  | 