

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Hyperparamètres de l'apprentissage linéaire
<a name="ll_hyperparameters"></a>

Le tableau suivant contient les hyper-paramètres pour l'algorithme d'apprentissage linéaire. Il s'agit des paramètres qui sont définis par les utilisateurs pour faciliter l'estimation des paramètres modèles issus des données. Les hyperparamètres requis qui doivent être définies sont les premiers répertoriés, dans l'ordre alphabétique. Les hyperparamètres facultatifs qui peuvent être définis sont répertoriés ensuite, également dans l'ordre alphabétique. Lorsqu'un hyperparamètre est défini sur`auto`, Amazon SageMaker AI calcule et définit automatiquement la valeur de cet hyperparamètre. 


| Nom du paramètre | Description | 
| --- | --- | 
| num\$1classes |  Nombre de classes de la variable de réponse. L'algorithme suppose que les classes sont étiquetées `0`, ..., `num_classes - 1`. **Obligatoire** quand `predictor_type` est `multiclass_classifier`. Dans le cas contraire, l'algorithme l'ignore. Valeurs valides : entiers compris entre 3 et 1 000 000  | 
| predictor\$1type |  Spécifie le type de variable cible sous la forme de classification binaire, de classification multi-classes ou de régression. **Obligatoire** Valeurs valides : `binary_classifier`, `multiclass_classifier` ou `regressor`  | 
| accuracy\$1top\$1k |  Lors du calcul de la métrique d’exactitude top-k pour la classification multi-classes, la valeur de *k*. Si le modèle attribue l'un des top-k scores à l'étiquette true, un exemple est marqué comme correct. **Facultatif** Valeurs valides : nombre entiers positifs Valeur par défaut : 3   | 
| balance\$1multiclass\$1weights |  Spécifie s'il faut utiliser les pondérations de classe, qui donnent à chaque classe une importance égale dans la fonction perte (loss). Utilisé uniquement si le `predictor_type` est `multiclass_classifier`. **Facultatif** Valeurs valides : `true`, `false` Valeur par défaut : `false`  | 
| beta\$11 |  Taux exponentiel de dégradation pour les estimations du premier moment. S'applique uniquement lorsque la valeur de `optimizer` est `adam`. **Facultatif** Valeurs valides : `auto` ou valeur à virgule flottante comprise entre 0 et 1,0 Valeur par défaut : `auto`  | 
| beta\$12 |  Taux exponentiel de déclin pour les estimations du second moment. S'applique uniquement lorsque la valeur de `optimizer` est `adam`. **Facultatif** Valeurs valides : `auto` ou entier à virgule flottante compris entre 0 et 1,0  Valeur par défaut : `auto`  | 
| bias\$1lr\$1mult |  Autorise un autre taux d'apprentissage pour le terme biaisé. Le taux d'apprentissage réel pour le biais est `learning_rate` \$1 `bias_lr_mult`. **Facultatif** Valeurs valides : `auto` ou entier à virgule flottante positif Valeur par défaut : `auto`  | 
| bias\$1wd\$1mult |  Autorise différentes régularisations pour le terme biaisé. La pondération réelle de la régularisation L2 pour le biais est `wd` \$1 `bias_wd_mult`. Par défaut, il n'y a pas de régularisation sur le terme biaisé. **Facultatif** Valeurs valides : `auto` ou entier à virgule flottante non négatif Valeur par défaut : `auto`  | 
| binary\$1classifier\$1model\$1selection\$1criteria |  Lorsque `predictor_type` a la valeur `binary_classifier`, les critères d'évaluation du modèle pour le jeu de données de validation (ou le jeu de données d'entraînement si vous ne fournissez pas d'ensemble de données de validation). Les critères comprennent : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/ll_hyperparameters.html) **Facultatif** Valeurs valides : `accuracy`, `f_beta`, `precision_at_target_recall`, `recall_at_target_precision` ou `loss_function` Valeur par défaut : `accuracy`  | 
| early\$1stopping\$1patience | Si aucune amélioration n'est apportée à la métrique appropriée, le nombre de périodes (epoch) à attendre avant la fin de l'entraînement. Si vous avez fourni une valeur pour binary\$1classifier\$1model\$1selection\$1criteria, la métrique est cette valeur. Dans le cas contraire, la métrique est identique à la valeur indiquée pour l'hyperparamètre loss. La métrique est évaluée sur les données de validation. Si vous n'avez pas fourni de données de validation, la métrique est toujours identique à la valeur indiquée pour l'hyperparamètre `loss` et elle est évaluée sur les données d'entraînement. Pour désactiver l'arrêt anticipé, définissez `early_stopping_patience` avec une valeur supérieure à la valeur spécifiée pour `epochs`.**Facultatif**Valeurs valides : nombre entier positifValeur par défaut : 3 | 
| early\$1stopping\$1tolerance |  Tolérance relative pour mesurer une amélioration de la fonction perte (loss). Si le ratio d'amélioration de la fonction perte (loss) divisé par la meilleure perte précédente est inférieur à cette valeur, l'arrêt anticipé considère l'amélioration comme égale à zéro. **Facultatif** Valeurs valides : entier à virgule flottante positif Valeur par défaut : 0.001  | 
| epochs |  Nombre maximal de passages sur les données d'entraînement. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 15  | 
| f\$1beta |  La valeur bêta à utiliser lors du calcul des métriques de score F pour la classification binaire ou multiclasse. Également utilisé si la valeur spécifiée pour `binary_classifier_model_selection_criteria` est `f_beta`. **Facultatif** Valeurs valides : entiers à virgule flottante positifs Valeur par défaut : 1.0   | 
| feature\$1dim |  Nombre de caractéristiques des données d'entrée.  **Facultatif** Valeurs valides : `auto` ou entier positif Valeurs par défaut : `auto`  | 
| huber\$1delta |  Paramètre pour la fonction de perte Huber. Pendant l'entraînement et l'évaluation des métriques, calculez la perte L2 pour les erreurs plus petites que delta et la perte L1 pour les erreurs supérieures à delta. **Facultatif** Valeurs valides : entier à virgule flottante positif Valeur par défaut : 1.0   | 
| init\$1bias |  Pondération initiale pour le terme biaisé. **Facultatif** Valeurs valides : entier à virgule flottante Valeur par défaut : 0  | 
| init\$1method |  Définit la fonction de distribution initiale utilisée pour les pondérations de modèle. Les fonctions incluent : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/ll_hyperparameters.html) **Facultatif** Valeurs valides : `uniform` ou `normal` Valeur par défaut : `uniform`  | 
| init\$1scale |  Dimensionne une distribution uniforme initiale pour les pondérations de modèle. S'applique uniquement quand l'hyperparamètre `init_method` a la valeur `uniform`. **Facultatif** Valeurs valides : entier à virgule flottante positif Valeur par défaut : 0.07  | 
| init\$1sigma |  Écart-type initial pour la distribution normale. S'applique uniquement quand l'hyperparamètre `init_method` a la valeur `normal`. **Facultatif** Valeurs valides : entier à virgule flottante positif Valeur par défaut : 0.01  | 
| l1 |  Paramètre de régularisation L1. Si vous ne voulez pas utiliser la régularisation L1, définissez la valeur sur 0. **Facultatif** Valeurs valides : `auto` ou flottante non négative Valeur par défaut : `auto`  | 
| learning\$1rate |  Taille d'étape utilisée par l'optimiseur pour les mises à jour de paramètre. **Facultatif** Valeurs valides : `auto` ou entier à virgule flottante positif Valeur par défaut : `auto`, dont la valeur dépend de l'optimiseur choisi.  | 
| loss |  Spécifie la fonction perte.  Les fonctions perte disponibles et leurs valeurs par défaut dépendent de la valeur de `predictor_type` : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/ll_hyperparameters.html) Valeurs valides : `auto`, `logistic`, `squared_loss`, `absolute_loss`, `hinge_loss`, `eps_insensitive_squared_loss`, `eps_insensitive_absolute_loss`, `quantile_loss` ou `huber_loss`  **Facultatif** Valeur par défaut : `auto`  | 
| loss\$1insensitivity |  Paramètre pour le type de perte insensible epsilon. Pendant l'entraînement et l'évaluation des métriques, toute erreur inférieure à cette valeur est considérée comme égale à zéro. **Facultatif** Valeurs valides : entier à virgule flottante positif Valeur par défaut : 0.01   | 
| lr\$1scheduler\$1factor |  Pour chaque hyperparamètre `lr_scheduler_step`, le taux d'apprentissage est diminué de cette quantité. S'applique uniquement quand l'hyperparamètre `use_lr_scheduler` a la valeur `true`. **Facultatif** Valeurs valides : `auto` ou entier positif à virgule flottante compris entre 0 et 1 Valeur par défaut : `auto`  | 
| lr\$1scheduler\$1minimum\$1lr |  Le taux d'apprentissage ne diminue jamais à une valeur inférieure à celle définie pour `lr_scheduler_minimum_lr`. S'applique uniquement quand l'hyperparamètre `use_lr_scheduler` a la valeur `true`. **Facultatif** Valeurs valides : `auto` ou entier à virgule flottante positif Valeurs par défaut : `auto`  | 
| lr\$1scheduler\$1step |  Nombre d'étapes entre les diminutions du taux d'apprentissage. S'applique uniquement quand l'hyperparamètre `use_lr_scheduler` a la valeur `true`. **Facultatif** Valeurs valides : `auto` ou entier positif Valeur par défaut : `auto`  | 
| margin |  Marge de la fonction `hinge_loss`. **Facultatif** Valeurs valides : entier à virgule flottante positif Valeur par défaut : 1.0  | 
| mini\$1batch\$1size |  Nombre d'observations par mini-lot pour l'itérateur de données. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 1000  | 
| momentum |  Vitesse de l'optimiseur `sgd`. **Facultatif** Valeurs valides : `auto` ou entier à virgule flottante compris entre 0 et 1,0 Valeur par défaut : `auto`  | 
| normalize\$1data |  Normalise les données de fonction avant l'entraînement. La normalisation déplace les données de chaque fonction pour avoir une moyenne égale à zéro et les dimensionne pour avoir un écart type unitaire. **Facultatif** Valeurs valides : `auto`, `true` ou `false` Valeur par défaut : `true`  | 
| normalize\$1label |  Normalise l'étiquette. La normalisation d'étiquette déplace l'étiquette pour obtenir une moyenne égale à 0 et la dimensionne pour avoir un écart type unitaire. La valeur `auto` par défaut normalise l'étiquette pour les problèmes de régression, mais pas pour les problèmes de classification. Si vous définissez l'hyperparamètre `normalize_label` avec la valeur `true` pour les problèmes de classification, l'algorithme l'ignore. **Facultatif** Valeurs valides : `auto`, `true` ou `false` Valeur par défaut : `auto`  | 
| num\$1calibration\$1samples |  Nombre d'observations de l'ensemble de données de validation à utiliser pour le calibrage du modèle (lors de la recherche du meilleur seuil). **Facultatif** Valeurs valides : `auto` ou entier positif Valeur par défaut : `auto`  | 
| num\$1models |  Nombre de modèles à entraîner en parallèle. Pour la valeur par défaut, `auto`, l'algorithme décide du nombre de modèles parallèles à entraîner. Un modèle est entraîné selon le paramètre d'entraînement donné (régularisation, optimiseur, perte), et le reste par les paramètres proches. **Facultatif** Valeurs valides : `auto` ou entier positif Valeurs par défaut : `auto`  | 
| num\$1point\$1for\$1scaler |  Nombre de points de données à utiliser pour calculer la normalisation ou annuler le biais des termes. **Facultatif** Valeurs valides : nombre entier positif Valeur par défaut : 10,000  | 
| optimizer |  Algorithme d'optimisation à utiliser. **Facultatif** Valeurs valides : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/sagemaker/latest/dg/ll_hyperparameters.html) Valeur par défaut : `auto`. Le paramètre par défaut pour `auto` est `adam`.  | 
| positive\$1example\$1weight\$1mult |  Pondération attribuée aux exemples positifs lors de l'entraînement d'un classificateur binaire. La pondération d'exemples négatifs est fixée à 1. Si vous souhaitez que l'algorithme choisisse une pondération afin que les erreurs de classification des exemples négatifs *et* des exemples positifs aient le même impact sur la perte d'entraînement, spécifiez `balanced`. Si vous voulez que l'algorithme choisisse la pondération qui optimise les performances, spécifiez `auto`. **Facultatif** Valeurs valides : `balanced`, `auto` ou entier positif à virgule flottante Valeur par défaut : 1.0  | 
| quantile |  Quantile pour la perte de quantile. Pour le quantile q, le modèle tente de produire des prédictions telles que la valeur de `true_label` soit supérieure à la prédiction avec la probabilité q. **Facultatif** Valeurs valides : entier à virgule flottante compris entre 0 et 1 Valeur par défaut : 0.5  | 
| target\$1precision |  Précision de la cible. Si `binary_classifier_model_selection_criteria` a la valeur `recall_at_target_precision`, la précision est détenue à cette valeur tandis que le rappel est optimisé. **Facultatif** Valeurs valides : entier à virgule flottante compris entre 0 et 1.0 Valeur par défaut : 0.8  | 
| target\$1recall |  Rappel de la cible. Si `binary_classifier_model_selection_criteria` a la valeur `precision_at_target_recall`, le rappel est détenu à cette valeur tandis que la précision est optimisée. **Facultatif** Valeurs valides : entier à virgule flottante compris entre 0 et 1.0 Valeur par défaut : 0.8  | 
| unbias\$1data |  Annule le biais des caractéristiques avant l'entraînement si bien que la moyenne est 0. Par défaut, les données sont sans biais si l'hyperparamètre `use_bias` a la valeur `true`. **Facultatif** Valeurs valides : `auto`, `true` ou `false` Valeur par défaut : `auto`  | 
| unbias\$1label |  Annule le biais des étiquettes avant l'entraînement si bien que la moyenne est 0. S'applique uniquement quand l'hyperparamètre `use_bias` a la valeur `true`. **Facultatif** Valeurs valides : `auto`, `true` ou `false` Valeur par défaut : `auto`  | 
| use\$1bias |  Spécifie si le modèle doit inclure un terme biaisé, lequel est le terme d'interception de l'équation linéaire. **Facultatif** Valeurs valides : `true` ou `false` Valeur par défaut : `true`  | 
| use\$1lr\$1scheduler |  Spécifie s'il faut utiliser un planificateur pour le taux d'apprentissage. Si vous souhaitez utiliser un planificateur, spécifiez `true`.  **Facultatif** Valeurs valides : `true` ou `false` Valeur par défaut : `true`  | 
| wd |  Paramètre weight decay, également connu sous le nom de paramètre de régularisation L2. Si vous ne voulez pas utiliser la régularisation L2, définissez la valeur sur 0. **Facultatif** Valeurs valides : `auto` ou entier à virgule flottante non négatif Valeur par défaut : `auto`  | 