Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Hiperparámetros de la personalización del modelo Meta Llama 3.2
Los modelos Meta Llama 3.2 1B, 3B, 11B y 90B admiten los siguientes hiperparámetros para la personalización del modelo. El número de épocas que especifique aumentará el coste de personalización del modelo al procesar más símbolos. Cada época procesa todo el conjunto de datos de entrenamiento una vez. Para obtener más información acerca de los precios, consulte Precios de Amazon Bedrock
Para obtener información sobre cómo ajustar con precisión los modelos Meta Llama, consulta la Meta documentación en https://ai.meta.com/llama/get-started/ #fine -tuning
Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Mínimo | Máximo | Predeterminado/a |
---|---|---|---|---|---|
Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | 1 | 10 | 5 |
Tamaño de lote | batchSize | El número de muestras procesadas antes de actualizar los parámetros del modelo | 1 | 1 | 1 |
Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | 5.00E-6 | 0.1 | 1.00E-4 |