Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Hiperparámetros de la personalización del modelo Meta Llama 3.2
Los modelos Meta Llama 3.2 1B, 3B, 11B y 90B admiten los siguientes hiperparámetros para la personalización de modelos. El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte Precios de Amazon Bedrock
Para obtener información sobre el ajuste preciso de los modelos Meta Llama, consulte la Meta documentación en https://ai.meta.com/llama/get-started/ #fine -tuning
| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Mínimo | Máximo | Predeterminado |
|---|---|---|---|---|---|
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | 1 | 10 | 5 |
| Tamaño de lote | batchSize | El número de muestras procesadas antes de actualizar los parámetros del modelo | 1 | 1 | 1 |
| Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | 5.00E-6 | 0.1 | 1.00E-4 |