Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
MetaLlama 3.2hyperparamètres de personnalisation du modèle
Les modèles Meta Llama 3.2 1B, 3B, 11B et 90B prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d'époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l'ensemble de données d'entraînement une seule fois. Pour plus d'informations sur les tarifs, consultez les tarifs d'Amazon Bedrock
Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation sur https://ai.meta.com/llama/get-started/ #fine -tuning
Hyperparamètre (console) | Hyperparamètre (API) | Définition | Minimum | Maximum | Par défaut |
---|---|---|---|---|---|
Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | 1 | 10 | 5 |
Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | 1 | 1 | 1 |
Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | 5,00E-6 | 0.1 | 1,00E-4 |