Hyperparamètres du modèle personnalisé - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Hyperparamètres du modèle personnalisé

Le contenu de référence suivant couvre les hyperparamètres disponibles pour l’entraînement de chaque modèle personnalisé Amazon Bedrock.

Un hyperparamètre est un paramètre qui contrôle le processus d'apprentissage, tel que le taux d'apprentissage ou le nombre d'époques. Vous définissez des hyperparamètres pour l'entraînement de modèles personnalisés lorsque vous soumettez la tâche de réglage fin à l'aide de la console Amazon Bedrock ou en appelant l'opération CreateModelCustomizationJobAPI.

Les modèles Amazon Nova Lite, Amazon Nova Micro et Amazon Nova Pro prennent en charge les trois hyperparamètres suivants pour la personnalisation du modèle. Pour plus d’informations, consultez Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation.

Pour plus d’informations sur le peaufinage des modèles Amazon Nova, consultez Peaufinage des modèles Amazon Nova.

Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez Tarification d’Amazon Bedrock.

Hyperparamètre (console) Hyperparamètre (API) Définition Type Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement entier 1 5 2
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot float 1,00E-6 1,00E-4 1.00E-5
Étapes de préparation du taux d’apprentissage learningRateWarmupÉtapes Nombre d’itérations au cours desquelles le taux d’apprentissage est progressivement augmenté jusqu’au taux spécifié entier 0 100 10

La valeur d’époque par défaut est 2, ce qui fonctionne dans la plupart des cas. En général, les grands jeux de données nécessitent moins d’époques pour converger, tandis que les jeux de données plus petits nécessitent plus d’époques pour converger. Une convergence plus rapide peut également être atteinte en augmentant le taux d’apprentissage, mais cela est moins souhaitable, car cela pourrait entraîner une instabilité de la formation lors de la convergence. Nous vous recommandons de commencer par les hyperparamètres par défaut, qui sont basés sur notre évaluation de tâches de complexité et de taille de données différentes.

Le taux d’apprentissage augmentera progressivement jusqu’à la valeur définie pendant la préparation. Par conséquent, nous vous recommandons d’éviter une valeur de préparation élevée lorsque l’échantillon d’apprentissage est petit, car le taux d’apprentissage risque de ne jamais atteindre la valeur définie pendant le processus d’entraînement. Nous vous recommandons de définir les étapes de préparation en divisant la taille du jeu de données par 640 pour Amazon Nova Micro, 160 pour Amazon Nova Lite et 320 pour Amazon Nova Pro.

Le modèle Amazon Nova Canvas prend en charge les hyperparamètres suivants pour la personnalisation du modèle.

Hyperparamètre (console) Hyperparamètre (API) Définition Minimum Maximum Par défaut
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle 8 192 8
Étapes stepCount Nombre de fois que le modèle est exposé à chaque lot 10 20 000 500
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot 1.00E-7 1,00E-4 1.00E-5

Le modèle Amazon Titan Text Premier prend en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez Tarification d’Amazon Bedrock.

Hyperparamètre (console) Hyperparamètre (API) Définition Type Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement entier 1 5 2
Taille du lot (micro) batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle entier 1 1 1
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot float 1,00E-07 1,00E-05 1,00E-06
Étapes de préparation du taux d’apprentissage learningRateWarmupÉtapes Nombre d’itérations au cours desquelles le taux d’apprentissage est progressivement augmenté jusqu’au taux spécifié entier 0 20 5

Les modèles Amazon Titan Text, tels que Lite et Express, prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez Tarification d’Amazon Bedrock.

Hyperparamètre (console) Hyperparamètre (API) Définition Type Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement entier 1 10 5
Taille du lot (micro) batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle entier 1 64 1
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot float 0.0 1 1.00E-5
Étapes de préparation du taux d’apprentissage learningRateWarmupÉtapes Nombre d’itérations au cours desquelles le taux d’apprentissage est progressivement augmenté jusqu’au taux spécifié entier 0 250 5

Le modèle de générateur d’images Amazon Titan G1 prend en charge les hyperparamètres suivants pour la personnalisation du modèle.

Note

stepCount n’a aucune valeur par défaut et doit être spécifiée. stepCount soutient la valeur auto. auto donne la priorité aux performances du modèle par rapport aux coûts d’entraînement en déterminant automatiquement un chiffre en fonction de la taille de votre jeu de données. Le coût des tâches d’entraînement dépend du nombre que auto détermine. Pour comprendre comment le coût des tâches est calculé et pour consulter des exemples, consultez Tarification d’Amazon Bedrock.

Hyperparamètre (console) Hyperparamètre (API) Définition Minimum Maximum Par défaut
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle 8 192 8
Étapes stepCount Nombre de fois que le modèle est exposé à chaque lot 10 40 000 N/A
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot 1.00E-7 1 1.00E-5

Le modèle Amazon Titan Multimodal Embeddings G1 prend en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez Tarification d’Amazon Bedrock.

Note

epochCount n’a aucune valeur par défaut et doit être spécifiée. epochCount soutient la valeur Auto. Auto donne la priorité aux performances du modèle par rapport aux coûts d’entraînement en déterminant automatiquement un chiffre en fonction de la taille de votre jeu de données. Le coût des tâches d’entraînement dépend du nombre que Auto détermine. Pour comprendre comment le coût des tâches est calculé et pour consulter des exemples, consultez Tarification d’Amazon Bedrock.

Hyperparamètre (console) Hyperparamètre (API) Définition Type Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement entier 1 100 N/A
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle entier 256 9 216 576
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot float 5,00E-8 1 5,00E-5

Les modèles Anthropic Claude 3 prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez Tarification d’Amazon Bedrock.

Nom de la console Nom d'API Définition Par défaut Minimum Maximum
Nombre d’époques epochCount Nombre d’itérations maximum dans l’ensemble du jeu de données d’entraînement 2 1 10
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle 32 4 256
Multiplicateur du taux d’apprentissage learningRateMultiplier Multiplicateur qui influence la fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot 1 0.1 2
Seuil d’arrêt anticipé earlyStoppingThreshold Amélioration minimale des pertes de validation requise pour empêcher l’arrêt prématuré du processus d’entraînement 0.001 0 0.1
Patience d’arrêt anticipé earlyStoppingPatience Tolérance de stagnation de la métrique de perte de validation avant l’arrêt du processus d’entraînement 2 1 10

Les modèles Cohere Command et Cohere Command Light prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez Tarification d’Amazon Bedrock. Pour de plus amples informations, veuillez consulter Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation.

Pour plus d'informations sur le réglage précis Cohere des modèles, consultez la Cohere documentation sur le https://docs.cohere.com/docs/réglage précis.

Note

Le quota epochCount est réglable.

Hyperparamètre (console) Hyperparamètre (API) Définition Type Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement entier 1 100 1
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle entier 8 8 (Command)

32 (Light)

8
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot. Si vous utilisez un jeu de données de validation, nous vous recommandons de ne pas fournir de valeur pour learningRate. float 5,00E-6 0.1 1.00E-5
Seuil d’arrêt anticipé earlyStoppingThreshold Amélioration minimale des pertes requise pour empêcher l’arrêt prématuré du processus d’entraînement. float 0 0.1 0,01
Patience d’arrêt anticipé earlyStoppingPatience Tolérance de stagnation de la métrique de perte avant l’arrêt du processus d’entraînement. entier 1 10  6
Pourcentage d’évaluation evalPercentage

Pourcentage du jeu de données alloué à l’évaluation des modèles, si vous ne fournissez pas de jeu de données de validation distinct.

float 5 50 20

Les modèles Meta Llama 3.1 8B et 70B prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez Tarification d’Amazon Bedrock. Pour de plus amples informations, veuillez consulter Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation.

Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation sur https://ai.meta.com/llama/get-started/ #fine -tuning.

Note

Le quota epochCount est réglable.

Hyperparamètre (console) Hyperparamètre (API) Définition Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement 1 10 5
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle 1 1 1
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot 5,00E-6 0.1 1,00E-4

Les modèles Meta Llama 3.2 1B, 3B, 11B et 90B prennent en charge les trois hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez Tarification d’Amazon Bedrock. Pour de plus amples informations, veuillez consulter Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation.

Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation sur https://ai.meta.com/llama/get-started/ #fine -tuning.

Hyperparamètre (console) Hyperparamètre (API) Définition Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement 1 10 5
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle 1 1 1
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot 5,00E-6 0.1 1,00E-4