Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Descripción de los hiperparámetros de personalización del modelo Amazon Nova
Los modelos Amazon Nova Lite, Amazon Nova Micro y Amazon Nova Pro admiten los siguientes hiperparámetros para la personalización de modelos. Para obtener más información, consulte Personalización del modelo para mejorar su rendimiento según su caso de uso.
Para obtener información sobre cómo refinar los modelos Amazon Nova, consulte Refinamiento de modelos de Amazon Nova.
El número de épocas que especifique aumentará el costo de personalización del modelo al procesar más tokens. Cada época procesa todo el conjunto de datos de entrenamiento una sola vez. Para obtener más información acerca de los precios, consulte Precios de Amazon Bedrock
| Hiperparámetro (consola) | Hiperparámetro (API) | Definición | Tipo | Mínimo | Máximo | Predeterminado |
|---|---|---|---|---|---|---|
| Épocas | epochCount | El número de iteraciones en todo el conjunto de datos de entrenamiento | entero | 1 | 5 | 2 |
| Tasa de aprendizaje | learningRate | La velocidad a la que se actualizan los parámetros del modelo después de cada lote | float | 1.00E-6 | 1.00E-4 | 1,00E-5 |
| Pasos de calentamiento de la tasa de aprendizaje | learningRateWarmupPasos | El número de iteraciones durante las que la tasa de aprendizaje aumenta gradualmente hasta alcanzar la tasa especificada | entero | 0 | 100 | 10 |
El número de épocas predeterminado es 2, lo que funciona en la mayoría de los casos. En general, los conjuntos de datos grandes requieren menos épocas para lograr la convergencia, mientras que los conjuntos de datos pequeños requieren un mayor número de épocas. También se podría lograr una convergencia más rápida aumentando la velocidad de aprendizaje, pero esto es menos recomendable porque podría provocar inestabilidad en el entrenamiento en el momento de la convergencia. Le recomendamos que empiece con los hiperparámetros predeterminados, que se basan en nuestra evaluación de tareas de diferentes niveles de complejidad y tamaños de datos.
La velocidad de aprendizaje aumentará gradualmente hasta alcanzar el valor establecido durante la preparación. Por lo tanto, le recomendamos que evite usar un número de preparación grande para una muestra de entrenamiento pequeña, ya que es posible que la velocidad de aprendizaje nunca alcance el valor establecido durante el proceso de entrenamiento. Le recomendamos que configure los pasos de preparación dividiendo el tamaño del conjunto de datos por 640 para Amazon Nova Micro, por 160 para Amazon Nova Lite y por 320 para Amazon Nova Pro.