Hyperparamètres de TabTransformer - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Hyperparamètres de TabTransformer

Le tableau suivant contient le sous-ensemble d’hyperparamètres requis ou couramment utilisés pour l’algorithme TabTransformer dans Amazon SageMaker AI. Les utilisateurs définissent ces paramètres pour faciliter l'estimation des paramètres du modèle à partir des données. L’algorithme TabTransformer SageMaker AI est une implémentation du package TabTransformer open source.

Note

Les hyperparamètres par défaut sont basés sur des exemples de jeux de données dans le Exemples de blocs-notes TabTransformer.

L’algorithme TabTransformer SageMaker AI choisit automatiquement une métrique d’évaluation et une fonction objective en fonction du type de problème de classification. L'algorithme TabTransformer détecte le type de problème de classification en fonction du nombre d'étiquettes contenues dans vos données. Pour les problèmes de régression, la métrique d'évaluation correspond à r carré et la fonction objective correspond à l'erreur quadratique moyenne. Pour les problèmes de classification binaire, la métrique d'évaluation et la fonction objective correspondent toutes deux à l'entropie croisée binaire. Pour les problèmes de classification multi-classes, la métrique d'évaluation et la fonction objective correspondent toutes deux à l'entropie croisée multi-classes.

Note

La métrique d'évaluation et les fonctions objectives de TabTransformer ne sont actuellement pas disponibles en tant qu'hyperparamètres. Au lieu de cela, l’algorithme TabTransformer intégré dans SageMaker AI détecte automatiquement le type de tâche de classification (régression, binaire ou multi-classes) en fonction du nombre d’entiers uniques dans la colonne d’étiquettes, et attribue une métrique d’évaluation et une fonction objective.

Nom du paramètre Description
n_epochs

Nombre d'époques pour entraîner le réseau neuronal profond.

Valeurs valides : nombre entier, plage : nombre entier positif.

Valeur par défaut : 5.

patience

L'entraînement s'arrête si une métrique d'un point de données de validation ne s'améliore pas au cours du dernier cycle patience.

Valeurs valides : entier, plage : (2, 60).

Valeur par défaut : 10.

learning_rate

Taux auquel les pondérations du modèle sont mises à jour après que chaque lot d'exemples d'entraînement a été parcouru.

Valeurs valides : flottante, plage : nombre à virgule flottante positive.

Valeur par défaut : 0.001.

batch_size

Nombre d'exemples propagés sur le réseau.

Valeurs valides : entier, plage : (1, 2048).

Valeur par défaut : 256.

input_dim

Dimension des intégration pour coder les colonnes catégorielles et/ou continues.

Valeurs valides : chaîne, l'une quelconque des valeurs suivantes : "16", "32", "64", "128", "256" ou "512".

Valeur par défaut : "32".

n_blocks

Nombre de blocs de codeurs Transformer.

Valeurs valides : entier, plage : (1, 12).

Valeur par défaut : 4.

attn_dropout

Taux d'abandon appliqué aux couches Multi-Head Attention.

Valeurs valides : float, plage : (0, 1).

Valeur par défaut : 0.2.

mlp_dropout

Taux d'abandon appliqué au réseau FeedForward au sein des couches d'encodeur et des couches MLP finales au-dessus des encodeurs Transformer.

Valeurs valides : float, plage : (0, 1).

Valeur par défaut : 0.1.

frac_shared_embed

Fraction des intégrations partagées par toutes les différentes catégories pour une colonne particulière.

Valeurs valides : float, plage : (0, 1).

Valeur par défaut : 0.25.