

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# TabTransformer hiperparâmetros
<a name="tabtransformer-hyperparameters"></a>

A tabela a seguir contém o subconjunto de hiperparâmetros que são necessários ou mais comumente usados para o algoritmo Amazon SageMaker AI TabTransformer . Os usuários definem esses parâmetros para facilitar a estimativa dos parâmetros do modelo a partir dos dados. O TabTransformer algoritmo de SageMaker IA é uma implementação do [TabTransformer](https://github.com/jrzaurin/pytorch-widedeep)pacote de código aberto.

**nota**  
Os hiperparâmetros padrão são baseados em conjuntos de dados de exemplo no [TabTransformer cadernos de amostra](tabtransformer.md#tabtransformer-sample-notebooks).

O TabTransformer algoritmo de SageMaker IA escolhe automaticamente uma métrica de avaliação e uma função objetiva com base no tipo de problema de classificação. O TabTransformer algoritmo detecta o tipo de problema de classificação com base no número de rótulos em seus dados. Para problemas de regressão, a métrica de avaliação é o r quadrático e a função objetivo é o erro quadrático médio. Para problemas de classificação binária, a métrica de avaliação e a função objetiva são ambas entropia cruzada binária. Para problemas de classificação multiclasse, a métrica de avaliação e a função objetiva são ambas entropia cruzada multiclasse.

**nota**  
A métrica de TabTransformer avaliação e as funções objetivas não estão atualmente disponíveis como hiperparâmetros. Em vez disso, o algoritmo TabTransformer integrado de SageMaker IA detecta automaticamente o tipo de tarefa de classificação (regressão, binária ou multiclasse) com base no número de números inteiros exclusivos na coluna do rótulo e atribui uma métrica de avaliação e uma função objetiva.


| Nome do parâmetro | Description | 
| --- | --- | 
| n\$1epochs |  Número de épocas para treinar a rede neural profunda. Valores válidos: inteiro, intervalo: inteiro positivo. Valor padrão: `5`.  | 
| patience |  O treinamento será interrompido se uma métrica de um ponto de dados de validação não melhorar na última rodada `patience`. Valores válidos: inteiro, intervalo: (`2`, `60`). Valor padrão: `10`.  | 
| learning\$1rate |  A taxa na qual os pesos do modelo são atualizados depois de analisar cada lote de exemplos de treinamento. Valores válidos: flutuante, intervalo: número de ponto flutuante positivo. Valor padrão: `0.001`.  | 
| batch\$1size |  O número de exemplos propagados pela rede.  Valores válidos: flutuante, intervalo: (`1`, `2048`). Valor padrão: `256`.  | 
| input\$1dim |  A dimensão das incorporações para codificar as colunas categóricas e/ou contínuas. Valores válidos: string, qualquer um dos seguintes: `"16"`, `"32"`, `"64"`, `"128"`, `"256"` ou `"512"`. Valor padrão: `"32"`.  | 
| n\$1blocks |  O número de blocos do codificador Transformer. Valores válidos: inteiro, intervalo: (`1`, `12`). Valor padrão: `4`.  | 
| attn\$1dropout |  Taxa de desistência aplicada às camadas Multi-Head Attention. Valores válidos: flutuante. Intervalo: (`0`, `1`). Valor padrão: `0.2`.  | 
| mlp\$1dropout |  Taxa de abandono aplicada à FeedForward rede dentro das camadas do codificador e às camadas MLP finais sobre os codificadores do Transformer. Valores válidos: flutuante. Intervalo: (`0`, `1`). Valor padrão: `0.1`.  | 
| frac\$1shared\$1embed |  A fração de incorporações compartilhadas por todas as diferentes categorias de uma coluna específica. Valores válidos: flutuante, intervalo: (`0`, `1`). Valor padrão: `0.25`.  | 