

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# TabTransformer iperparametri
<a name="tabtransformer-hyperparameters"></a>

La tabella seguente contiene il sottoinsieme di iperparametri richiesti o più comunemente utilizzati per l'algoritmo Amazon SageMaker AI TabTransformer . Gli utenti impostano questi parametri per agevolare la stima dei parametri del modello dai dati. L' TabTransformeralgoritmo SageMaker AI è un'implementazione del pacchetto open source [TabTransformer](https://github.com/jrzaurin/pytorch-widedeep).

**Nota**  
Gli iperparametri predefiniti si basano su set di dati di esempio in [TabTransformer quaderni di esempio](tabtransformer.md#tabtransformer-sample-notebooks).

L' TabTransformer algoritmo SageMaker AI sceglie automaticamente una metrica di valutazione e una funzione oggettiva in base al tipo di problema di classificazione. L' TabTransformer algoritmo rileva il tipo di problema di classificazione in base al numero di etichette nei dati. Per i problemi di regressione, il parametro di valutazione è l'errore quadratico r e la funzione obiettivo è l’errore quadratico medio. Per i problemi di classificazione binaria, il parametro di valutazione e la funzione obiettivo sono entrambe entropia binaria incrociata. Per i problemi di classificazione multiclasse, il parametro di valutazione e la funzione obiettivo sono entrambi un'entropia incrociata multiclasse.

**Nota**  
Le funzioni metriche di TabTransformer valutazione e oggettive non sono attualmente disponibili come iperparametri. Invece, l'algoritmo TabTransformer integrato di SageMaker intelligenza artificiale rileva automaticamente il tipo di attività di classificazione (regressione, binaria o multiclasse) in base al numero di numeri interi univoci nella colonna dell'etichetta e assegna una metrica di valutazione e una funzione oggettiva.


| Nome parametro | Description | 
| --- | --- | 
| n\$1epochs |  Numero di epoche per addestrare la rete neurale profonda. Valori validi: numero intero, intervallo: numero intero positivo. Valore predefinito: `5`.  | 
| patience |  L'addestramento si interromperà se un parametro di un dato di convalida non migliora nell'ultimo round `patience`. Valori validi: intero, intervallo: (`2`,`60`). Valore predefinito: `10`.  | 
| learning\$1rate |  La velocità con cui i pesi del modello vengono aggiornati dopo aver esaminato ogni batch di esempi di addestramento. Valori validi: float, intervallo: numero a virgola mobile positivo. Valore predefinito: `0.001`.  | 
| batch\$1size |  Il numero di esempi propagati attraverso la rete.  Valori validi: intero, intervallo: (`1`,`2048`). Valore predefinito: `256`.  | 
| input\$1dim |  La dimensione degli incorporamenti per codificare le colonne categoriche e/o continue. Valori validi: stringa, uno dei seguenti valori: `"16"`, `"32"`, `"64"`, `"128"`, `"256"` o `"512"`. Valore predefinito: `"32"`.  | 
| n\$1blocks |  Il numero di blocchi encoder del trasformatore. Valori validi: intero, intervallo: (`1`,`12`). Valore predefinito: `4`.  | 
| attn\$1dropout |  Tasso di dropout applicato ai livelli di attenzione Multi-Head. Valori validi: float, intervallo: (`0`, `1`). Valore predefinito: `0.2`.  | 
| mlp\$1dropout |  Tasso di abbandono applicato alla FeedForward rete all'interno dei livelli dell'encoder e ai livelli MLP finali sopra gli encoder Transformer. Valori validi: float, intervallo: (`0`, `1`). Valore predefinito: `0.1`.  | 
| frac\$1shared\$1embed |  La frazione di incorporamenti condivisa da tutte le diverse categorie per una colonna particolare. Valori validi: float, intervallo: (`0`, `1`). Valore predefinito: `0.25`.  | 