Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
MetaLlama 3.1hyperparamètres de personnalisation du modèle
Les modèles Meta Llama 3.1 8B et 70B prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d'époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l'ensemble de données d'entraînement une seule fois. Pour plus d'informations sur les tarifs, consultez les tarifs d'Amazon Bedrock
Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation sur https://ai.meta.com/llama/get-started/ #fine -tuning
Note
Le epochCount
quota est ajustable.
Hyperparamètre (console) | Hyperparamètre (API) | Définition | Minimum | Maximum | Par défaut |
---|---|---|---|---|---|
Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | 1 | 10 | 5 |
Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | 1 | 1 | 1 |
Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | 5,00E-6 | 0.1 | 1,00E-4 |