Hiperparámetros de Text Classification - TensorFlow
Los hiperparámetros son parámetros que se establecen antes de que un modelo de machine learning comience a aprender. Los siguientes hiperparámetros son compatibles con el algoritmo de detección de objetos - TensorFlow integrado en Amazon SageMaker AI. Para obtener más información sobre el ajuste de hiperparámetros, consulte Ajuste de un modelo Text Classification - TensorFlow.
| Nombre del parámetro | Descripción |
|---|---|
batch_size |
El tamaño del lote para la capacitación. Para el entrenamiento en instancias con varias GPU, este tamaño de lote se utiliza en todas las GPU. Valores válidos: número entero positivo. Valor predeterminado: |
beta_1 |
El beta1 para los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
beta_2 |
El beta2 para los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
dropout_rate |
La tasa de eliminación en la capa de eliminación, dentro de la capa de clasificación superior. Solo se usa cuando Valores válidos: flotante, con el rango [ Valor predeterminado: |
early_stopping |
Se establece en Valores válidos: cadena ( Valor predeterminado: |
early_stopping_min_delta |
El cambio mínimo necesario para considerarse una mejora. Un cambio absoluto inferior al valor de early_stopping_min_delta no se considera mejora. Solo se usa cuando early_stopping está establecido en "True".Valores válidos: flotante, con el rango [ Valor predeterminado: |
early_stopping_patience |
El número de epochs (fechas de inicio) para seguir entrenando sin que haya mejoras. Solo se usa cuando Valores válidos: número entero positivo. Valor predeterminado: |
epochs |
El número de fechas de inicio de capacitación. Valores válidos: número entero positivo. Valor predeterminado: |
epsilon |
El valor épsilon para los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
initial_accumulator_value |
El valor inicial de los acumuladores o los valores de impulso por parámetro del optimizador Valores válidos: flotante, con el rango [ Valor predeterminado: |
learning_rate |
La tasa de aprendizaje del optimizador. Valores válidos: flotante, con el rango [ Valor predeterminado: |
momentum |
El valor de impulso para los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
optimizer |
El tipo de optimizador. Para obtener más información, consulte Optimizers Valores válidos: cadena, Valor predeterminado: |
regularizers_l2 |
El factor de regularización L2 de la capa densa en la capa de clasificación. Solo se usa cuando Valores válidos: flotante, con el rango [ Valor predeterminado: |
reinitialize_top_layer |
Si se establece en Valores válidos: cadena, Valor predeterminado: |
rho |
El factor de descuento para el gradiente de los optimizadores Valores válidos: flotante, con el rango [ Valor predeterminado: |
train_only_on_top_layer |
Si es Valores válidos: cadena ( Valor predeterminado: |
validation_split_ratio |
La fracción de datos de entrenamiento que se va a dividir aleatoriamente para crear datos de validación. Solo se usa si no se suministran datos de validación a través del canal Valores válidos: flotante, con el rango [ Valor predeterminado: |
warmup_steps_fraction |
La fracción del número total de pasos de actualización del gradiente; la tasa de aprendizaje aumenta desde 0 hasta la tasa de aprendizaje inicial durante la fase de preparación. Solo se usa con el optimizador Valores válidos: flotante, con el rango [ Valor predeterminado: |