Amazon NovaDescripción de los hiperparámetros de personalización de modelos - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Amazon NovaDescripción de los hiperparámetros de personalización de modelos

Los Amazon Nova Pro modelos Amazon Nova LiteAmazon Nova Micro, y admiten los tres hiperparámetros siguientes para la personalización del modelo. Para obtener más información, consulte Personalización del modelo para mejorar su rendimiento según su caso de uso.

Para obtener información sobre el ajuste fino de los modelos Amazon Nova, consulte Modelos de ajuste fino Amazon Nova.

El número de épocas que especifique aumentará el coste de personalización del modelo al procesar más fichas. Cada época procesa todo el conjunto de datos de entrenamiento una vez. Para obtener más información acerca de los precios, consulte Precios de Amazon Bedrock.

Hiperparámetro (consola) Hiperparámetro (API) Definición Tipo Mínimo Máximo Predeterminado/a
Épocas epochCount El número de iteraciones en todo el conjunto de datos de entrenamiento entero 1 5 2
Tasa de aprendizaje learningRate La velocidad a la que se actualizan los parámetros del modelo después de cada lote float 1.00E-6 1.00E-4 1,00E-5
Pasos de calentamiento de la tasa de aprendizaje learningRateWarmupPasos El número de iteraciones durante las que la tasa de aprendizaje aumenta gradualmente hasta alcanzar la tasa especificada entero 0 100 10

El número de época predeterminado es 2, lo que funciona en la mayoría de los casos. En general, los conjuntos de datos más grandes requieren menos épocas para converger, mientras que los conjuntos de datos más pequeños requieren más épocas para converger. También se podría lograr una convergencia más rápida aumentando la tasa de aprendizaje, pero esto es menos deseable porque podría provocar inestabilidad en el entrenamiento en el momento de la convergencia. Recomendamos empezar con los hiperparámetros predeterminados, que se basan en nuestra evaluación de tareas de diferente complejidad y tamaño de datos.

La velocidad de aprendizaje aumentará gradualmente hasta el valor establecido durante el calentamiento. Por lo tanto, le recomendamos que evite un valor de calentamiento elevado cuando la muestra de entrenamiento sea pequeña, ya que es posible que la tasa de aprendizaje nunca alcance el valor establecido durante el proceso de entrenamiento. Te recomendamos configurar los pasos de calentamiento dividiendo el tamaño del conjunto de datos entre 640 a favorAmazon Nova Micro, 160 a favor Amazon Nova Lite y 320 a favor. Amazon Nova Pro