

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Sequence-to-Sequence Hyperparamètres
<a name="seq-2-seq-hyperparameters"></a>

Le tableau suivant répertorie les hyperparamètres que vous pouvez définir lors de l'entraînement avec l'algorithme Amazon SageMaker AI Sequence-to-Sequence (seq2seq).


| Nom du paramètre | Description | 
| --- | --- | 
| batch\$1size | Taille de lot minimale pour une pente de gradient. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 64 | 
| beam\$1size | Longueur du faisceau pour la recherche de faisceau. Utilisé lors de la formation pour le calcul de `bleu` et utilisé lors de l'inférence. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 5 | 
| bleu\$1sample\$1size | Nombre d’instances à choisir dans le jeu de données de validation pour décoder et calculer le score de `bleu` durant l’entraînement. À définir sur -1 pour utiliser l'ensemble complet de validation (si `bleu` a la valeur `optimized_metric`). **Facultatif** Valeurs valides : nombre entier Valeur par défaut : 0 | 
| bucket\$1width | Renvoie les compartiments (source, cible) jusqu'à (`max_seq_len_source`, `max_seq_len_target`). Le côté le plus long des données utilise des étapes de `bucket_width` tandis que le côté le plus court utilise des étapes réduites en fonction du ratio de target/source longueur moyen. Si l'un des côtés atteint sa longueur maximale avant l'autre, la largeur des compartiments supplémentaires de ce côté-là est fixée à ce côté-là de `max_len`. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 10 | 
| bucketing\$1enabled | À définir sur `false` pour désactiver la mise en compartiment, puis déployez jusqu'à la longueur maximale. **Facultatif** Valeurs valides : `true` ou `false` Valeur par défaut : `true` | 
| checkpoint\$1frequency\$1num\$1batches | Contrôle et évaluation tous les x lots. Cet hyperparamètre de point de contrôle est transmis à l'algorithme seq2seq de l' SageMaker IA pour arrêter rapidement et récupérer le meilleur modèle. Le point de contrôle de l'algorithme s'exécute localement dans le conteneur d'entraînement de l'algorithme et n'est pas compatible avec le point de contrôle basé sur l' SageMaker IA. L'algorithme enregistre temporairement les points de contrôle dans un chemin local et stocke l'artefact du meilleur modèle dans le chemin de sortie du modèle dans S3 après l'arrêt de la tâche d'entraînement. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 1000 | 
| checkpoint\$1threshold | Nombre maximal du modèle de points de contrôle autorisé à ne pas être amélioré dans `optimized_metric` de jeu de données de validation avant l’arrêt de l’entraînement. Cet hyperparamètre de point de contrôle est transmis à l'algorithme seq2seq de l' SageMaker IA pour arrêter rapidement et récupérer le meilleur modèle. Le point de contrôle de l'algorithme s'exécute localement dans le conteneur d'entraînement de l'algorithme et n'est pas compatible avec le point de contrôle basé sur l' SageMaker IA. L'algorithme enregistre temporairement les points de contrôle dans un chemin local et stocke l'artefact du meilleur modèle dans le chemin de sortie du modèle dans S3 après l'arrêt de la tâche d'entraînement. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 3 | 
| clip\$1gradient | Rognez les valeurs de gradient absolu supérieures à celle-ci. Définissez une valeur négative pour désactiver. **Facultatif** Valeurs valides : float Valeur par défaut : 1 | 
| cnn\$1activation\$1type | Type d'activation `cnn` à utiliser. **Facultatif** Valeurs valides : string. L'une des valeurs suivantes : `glu`, `relu`, `softrelu`, `sigmoid` ou `tanh`. Valeur par défaut : `glu` | 
| cnn\$1hidden\$1dropout | Probabilité de dropout entre couches convolutives. **Facultatif** Valeurs valides : float. Plage [0,1]. Valeur par défaut : 0 | 
| cnn\$1kernel\$1width\$1decoder | Largeur du noyau (kernel) pour le décodeur `cnn`. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 5 | 
| cnn\$1kernel\$1width\$1encoder | Largeur du noyau (kernel) pour l'encodeur `cnn`. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 3 | 
| cnn\$1num\$1hidden | Nombre d'unités `cnn` masquées de l'encodeur et du décodeur. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 512 | 
| decoder\$1type | Type de décodeur. **Facultatif** Valeurs valides : string. `rnn` ou `cnn`. Valeur par défaut : *rnn* | 
| embed\$1dropout\$1source | Probabilité de dropout pour les intégrations côté source. **Facultatif** Valeurs valides : float. Plage [0,1]. Valeur par défaut : 0 | 
| embed\$1dropout\$1target | Probabilité de dropout pour les intégrations côté cible. **Facultatif** Valeurs valides : float. Plage [0,1]. Valeur par défaut : 0 | 
| encoder\$1type | Type d'encodeur. L'architecture des `rnn` est basée sur le mécanisme d'attention de Bahdanau et al. Celle des réseaux *cnn* repose sur Gehring et al. **Facultatif** Valeurs valides : string. `rnn` ou `cnn`. Valeur par défaut : `rnn` | 
| fixed\$1rate\$1lr\$1half\$1life | Moitié de vie pour le taux d'apprentissage en termes de nombre de points de contrôle des planificateurs `fixed_rate_`\$1. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 10 | 
| learning\$1rate | Taux de formation initial. **Facultatif** Valeurs valides : float Valeur par défaut : 0.0003 | 
| loss\$1type | Fonction de perte pour la formation. **Facultatif** Valeurs valides : String. `cross-entropy` Valeur par défaut : `cross-entropy` | 
| lr\$1scheduler\$1type | Type de planificateur du taux d'apprentissage. `plateau_reduce` signifie une réduction du taux d'apprentissage à chaque fois que `optimized_metric` sur des niveaux`validation_accuracy`. `inv_t` est la dégradation temporelle inverse `learning_rate`/(1\$1`decay_rate`\$1 t) **Facultatif** Valeurs valides : string. `plateau_reduce`, `fixed_rate_inv_t` ou `fixed_rate_inv_sqrt_t`. Valeur par défaut : `plateau_reduce` | 
| max\$1num\$1batches | Nombre maximum de updates/batches à traiter. -1 pour un nombre infini. **Facultatif** Valeurs valides : nombre entier Valeur par défaut : -1 | 
| max\$1num\$1epochs | Nombre maximal de dates epoch à transmettre par le biais des données de formation avant que l'ajustement ne soit arrêté. La formation se poursuit jusqu'au nombre de dates epoch, même si la précision de la validation n'est pas améliorée lorsque ce paramètre est transmis. Paramètre ignoré s'il n'est pas passé. **Facultatif** Valeurs valides : nombre entier positif et inférieur ou égal à max\$1num\$1epochs. Valeur par défaut : none | 
| max\$1seq\$1len\$1source | Longueur maximale de la séquence source. Les séquences qui dépassent cette longueur sont tronquées à cette valeur. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 100  | 
| max\$1seq\$1len\$1target | Longueur maximale de la séquence cible. Les séquences qui dépassent cette longueur sont tronquées à cette valeur. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 100 | 
| min\$1num\$1epochs | Nombre minimal de périodes (epochs) que la formation doit exécuter avant qu'elle ne soit arrêtée via les conditions `early_stopping`. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 0 | 
| momentum | Constante de vitesse utilisée pour `sgd`. Ne transmettez pas ce paramètre si vous utilisez `adam` ou `rmsprop`. **Facultatif** Valeurs valides : float Valeur par défaut : none | 
| num\$1embed\$1source | Taille d'intégration des jetons source. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 512 | 
| num\$1embed\$1target | Taille d'intégration des jetons cible. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 512 | 
| num\$1layers\$1decoder | Nombre de couches du décodeur *rnn* ou *cnn*. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 1 | 
| num\$1layers\$1encoder | Nombre de couches de l'encodeur `rnn` ou `cnn`. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 1 | 
| optimized\$1metric | Métriques d'optimisation avec arrêt anticipé. **Facultatif** Valeurs valides : string. `perplexity`, `accuracy` ou `bleu`. Valeur par défaut : `perplexity` | 
| optimizer\$1type | Optimiseur à partir duquel choisir. **Facultatif** Valeurs valides : string. `adam`, `sgd` ou `rmsprop`. Valeur par défaut : `adam` | 
| plateau\$1reduce\$1lr\$1factor | Facteur avec lequel multiplier le taux d'apprentissage (pour `plateau_reduce`). **Facultatif** Valeurs valides : float Valeur par défaut : 0.5 | 
| plateau\$1reduce\$1lr\$1threshold | Pour le planificateur `plateau_reduce`, multipliez le taux d'apprentissage avec le facteur de réduction si la valeur `optimized_metric` ne s'est pas améliorée pour autant de points de contrôle. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 3 | 
| rnn\$1attention\$1in\$1upper\$1layers | Transmettez l'attention aux couches supérieures de *rnn*, comme l'article sur le système NMT de Google. Applicable uniquement si plusieurs couches sont utilisées. **Facultatif** Valeurs valides : booléennes (`true` ou `false`) Valeur par défaut : `true` | 
| rnn\$1attention\$1num\$1hidden | Nombre d'unités masquées pour les couches d'attention. Valeur par défaut : `rnn_num_hidden` **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : `rnn_num_hidden` | 
| rnn\$1attention\$1type | Modèle d'attention pour les encodeurs. `mlp` fait référence à la concaténation (« concat ») et bilinear (bilinéaire) à « general » (voir article de Luong et al.). **Facultatif** Valeurs valides : string. L'une des valeurs suivantes : `dot`, `fixed`, `mlp` ou `bilinear`. Valeur par défaut : `mlp` | 
| rnn\$1cell\$1type | Type spécifique d'architecture `rnn`. **Facultatif** Valeurs valides : string. `lstm` ou `gru`. Valeur par défaut : `lstm` | 
| rnn\$1decoder\$1state\$1init | Procédure pour initialiser les états du décodeur `rnn` à partir des encodeurs. **Facultatif** Valeurs valides : string. `last`, `avg` ou `zero`. Valeur par défaut : `last` | 
| rnn\$1first\$1residual\$1layer | Première couche *rnn* à avoir une connexion résiduelle ; applicable uniquement si le nombre de couches de l'encodeur ou du décodeur est supérieur à 1. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 2 | 
| rnn\$1num\$1hidden | Nombre d'unités *rnn* masquées de l'encodeur et du décodeur. La valeur doit être un multiple de 2, car l'algorithme utilise par défaut le réseau LSTM bidirectionnel. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 1024 | 
| rnn\$1residual\$1connections | Ajout d'une connexion résiduelle aux types *rnn* empilés. Le nombre de couches doit être supérieur à 1. **Facultatif** Valeurs valides : booléennes (`true` ou `false`) Valeur par défaut : `false` | 
| rnn\$1decoder\$1hidden\$1dropout | Probabilité de dropout d'un état masqué qui associe le contexte à l'état *rnn* masqué du décodeur. **Facultatif** Valeurs valides : float. Plage [0,1]. Valeur par défaut : 0 | 
| training\$1metric | Métriques de suivi de la formation sur les données de validation. **Facultatif** Valeurs valides : string. `perplexity` ou `accuracy`. Valeur par défaut : `perplexity` | 
| weight\$1decay | Constante de dégradation de pondération. **Facultatif** Valeurs valides : float Valeur par défaut : 0 | 
| weight\$1init\$1scale | Échelle d'initialisation de pondération (pour les initialisations `uniform` et `xavier`).  **Facultatif** Valeurs valides : float Valeur par défaut : 2.34 | 
| weight\$1init\$1type | Type d'initialisation de pondération.  **Facultatif** Valeurs valides : string. `uniform` ou `xavier`. Valeur par défaut : `xavier` | 
| xavier\$1factor\$1type | Type de facteur xavier. **Facultatif** Valeurs valides : string. `in`, `out` ou `avg`. Valeur par défaut : `in` | 