MetaLlama 3.1hyperparamètres de personnalisation du modèle - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

MetaLlama 3.1hyperparamètres de personnalisation du modèle

Les modèles Meta Llama 3.1 8B et 70B prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d'époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l'ensemble de données d'entraînement une seule fois. Pour plus d'informations sur les tarifs, consultez les tarifs d'Amazon Bedrock. Pour de plus amples informations, veuillez consulter Personnalisez votre modèle pour améliorer ses performances en fonction de votre cas d'utilisation.

Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation sur https://ai.meta.com/llama/get-started/ #fine -tuning.

Note

Le epochCount quota est ajustable.

Hyperparamètre (console) Hyperparamètre (API) Définition Minimum Maximum Par défaut
Époques epochCount Nombre d’itérations dans l’ensemble du jeu de données d’entraînement 1 10 5
Taille de lot batchSize Nombre d’échantillons traités avant la mise à jour des paramètres du modèle 1 1 1
Taux d’apprentissage learningRate Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot 5,00E-6 0.1 1,00E-4