Amazon NovaComprendre les hyperparamètres de personnalisation des modèles - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Amazon NovaComprendre les hyperparamètres de personnalisation des modèles

Les Amazon Nova Pro modèles Amazon Nova LiteAmazon Nova Micro, et prennent en charge les trois hyperparamètres suivants pour la personnalisation du modèle. Pour de plus amples informations, veuillez consulter Personnalisez votre modèle pour améliorer ses performances en fonction de votre cas d'utilisation.

Pour plus d'informations sur le réglage précis des modèles Amazon Nova, consultez la section Réglage précis Amazon Nova des modèles.

Le nombre d'époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l'intégralité de l'ensemble de données d'entraînement une seule fois. Pour plus d'informations sur les tarifs, consultez les tarifs d'Amazon Bedrock.

Hyperparamètre (console) Hyperparamètre (API) Définition Type Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement entier 1 5 2
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot float 1,00E-6 1,00E-4 1.00E-5
Étapes de préparation du taux d’apprentissage learningRateWarmupÉtapes Nombre d’itérations au cours desquelles le taux d’apprentissage est progressivement augmenté jusqu’au taux spécifié entier 0 100 10

Le numéro d'époque par défaut est 2, ce qui fonctionne dans la plupart des cas. En général, les grands ensembles de données nécessitent moins d'époques pour converger, tandis que les ensembles de données plus petits nécessitent plus d'époques pour converger. Une convergence plus rapide peut également être atteinte en augmentant le taux d'apprentissage, mais cela est moins souhaitable car cela pourrait entraîner une instabilité de la formation lors de la convergence. Nous vous recommandons de commencer par les hyperparamètres par défaut, qui sont basés sur notre évaluation de tâches de complexité et de taille de données différentes.

Le taux d'apprentissage augmentera progressivement jusqu'à la valeur définie pendant l'échauffement. Par conséquent, nous vous recommandons d'éviter une valeur d'échauffement élevée lorsque l'échantillon d'apprentissage est petit, car le taux d'apprentissage risque de ne jamais atteindre la valeur définie pendant le processus d'entraînement. Nous vous recommandons de définir les étapes de préchauffage en divisant la taille du jeu de données par 640 pourAmazon Nova Micro, 160 pour Amazon Nova Lite et 320 pourAmazon Nova Pro.