

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Hiperparámetros de segmentación semántica
<a name="segmentation-hyperparameters"></a>

En las siguientes tablas se enumeran los hiperparámetros compatibles con el algoritmo de segmentación semántica de Amazon SageMaker AI para la arquitectura de red, las entradas de datos y el entrenamiento. Especifique la segmentación semántica para la capacitación en el `AlgorithmName` de la solicitud de [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html).

**Hiperparámetros de arquitectura de red**


| Nombre del parámetro | Description (Descripción) | 
| --- | --- | 
| backbone |  El núcleo que se va a usar para el componente de codificador del algoritmo. **Opcional** Valores válidos: `resnet-50`, `resnet-101`  Valor predeterminado: `resnet-50`  | 
| use\$1pretrained\$1model |  Si un modelo capacitado previamente se va a usar para el núcleo. **Opcional** Valores válidos: `True`, `False` Valor predeterminado: `True`  | 
| algorithm |  El algoritmo que se va a usar para la segmentación semántica.  **Opcional** Valores válidos: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/segmentation-hyperparameters.html) Valor predeterminado: `fcn`  | 

**Hiperparámetros de datos**


| Nombre del parámetro | Description (Descripción) | 
| --- | --- | 
| num\$1classes |  El número de clases que se va a segmentar. **Obligatorio** Valores válidos: 2 ≤ entero positivo ≤ 254  | 
| num\$1training\$1samples |  El número de muestras de los datos de capacitación. El algoritmo usa este valor para configurar el programador de la tasa de aprendizaje. **Obligatorio** Valores válidos: número entero positivo  | 
| base\$1size |  Define cómo se reescalan las imágenes antes de recortar. Las imágenes se reescalan de tal manera que la longitud de tamaño largo se establece en el `base_size` multiplicado por un número aleatorio de 0,5 a 2,0, y el tamaño corto se calcula para preservar la relación de aspecto. **Opcional** Valores válidos: número entero positivo > 16 Valor predeterminado: 520  | 
| crop\$1size |  El tamaño de imagen de la entrada durante el entrenamiento. Reescalamos aleatoriamente la imagen de entrada en función del `base_size` y, a continuación, realizamos un recorte cuadrado aleatorio con una longitud lateral igual a `crop_size`. El `crop_size` de entrada se redondeará automáticamente hasta múltiplos de 8. **Opcional** Valores válidos: número entero positivo > 16 Valor predeterminado: 240  | 

**Hiperparámetros de capacitación**


| Nombre del parámetro | Description (Descripción) | 
| --- | --- | 
| early\$1stopping |  Si se usa una lógica de detención temprana durante la capacitación. **Opcional** Valores válidos: `True`, `False` Valor predeterminado: `False`  | 
| early\$1stopping\$1min\$1epochs |  El número mínimo de fechas de inicio que se debe ejecutar. **Opcional** Valores válidos: número entero Valor predeterminado: 5  | 
| early\$1stopping\$1patience |  El número de fechas de inicio que se ajustan a la tolerancia para un rendimiento más bajo antes de que el algoritmo fuerce una detención temprana. **Opcional** Valores válidos: número entero Valor predeterminado: 4  | 
| early\$1stopping\$1tolerance |  Si la mejora relativa de la puntuación del trabajo de capacitación, mIOU, es más pequeña que este valor, la detención temprana considera que no se ha mejorado la fecha de inicio. Esta se usa solo cuando `early_stopping` = `True`. **Opcional** Valores válidos: 0 ≤ número flotante ≤ 1 Valor predeterminado: 0,0  | 
| epochs |  El número de fechas de inicio con el que se va a capacitar. **Opcional** Valores válidos: número entero positivo Valor predeterminado: 10  | 
| gamma1 |  El factor de decremento del promedio de movimiento del gradiente cuadrado para `rmsprop`. Usado solo con `rmsprop`. **Opcional** Valores válidos: 0 ≤ número flotante ≤ 1 Valor predeterminado: 0,9  | 
| gamma2 |  El factor de impulso para `rmsprop`. **Opcional** Valores válidos: 0 ≤ número flotante ≤ 1 Valor predeterminado: 0,9  | 
| learning\$1rate |  La tasa de aprendizaje inicial.  **Opcional** Valores válidos: 0 < número flotante ≤ 1 Valor predeterminado: 0.001  | 
| lr\$1scheduler |  La forma de la programación de tasa de aprendizaje que controla su disminución con el tiempo. **Opcional** Valores válidos:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/segmentation-hyperparameters.html) Valor predeterminado: `poly`  | 
| lr\$1scheduler\$1factor |  Si `lr_scheduler` se establece en `step`, la relación por la que se reduce (multiplica) `learning_rate` después de cada una de las fechas de inicio (epochs) especificadas por `lr_scheduler_step`. De lo contrario, se ignora. **Opcional** Valores válidos: 0 ≤ número flotante ≤ 1 Valor predeterminado: 0.1  | 
| lr\$1scheduler\$1step |  Una lista delimitada por comas de las fechas de inicio (epochs) después de las cuales `learning_rate` se reduce (multiplica) por un `lr_scheduler_factor`. Por ejemplo, si el valor se establece en `"10, 20"`, la `learning-rate` se reduce por `lr_scheduler_factor` después de la décima fecha de inicio y, de nuevo, después de la vigésima fecha de inicio. Es **obligatorio** si `lr_scheduler` está establecido en `step`. De lo contrario, se ignora. Valores válidos: cadena Valor predeterminado: (no hay predeterminado, ya que el valor es obligatorio cuando se usa).  | 
| mini\$1batch\$1size |  El tamaño del lote para la capacitación. El uso de un `mini_batch_size` grande suele dar lugar a una capacitación más rápida, pero podría hacer que se quedara sin memoria. El uso de memoria se ve afectado por los valores de los parámetros `mini_batch_size` e `image_shape`, y la arquitectura de núcleo. **Opcional** Valores válidos: número entero positivo  Valor predeterminado: 16  | 
| momentum |  El impulso para el optimizador `sgd`. Cuando usa otros optimizadores, el algoritmo de segmentación semántica omite este parámetro. **Opcional** Valores válidos: 0 < flotante ≤ 1 Valor predeterminado: 0,9  | 
| optimizer |  El tipo de optimizador. Para obtener más información sobre un optimizador, elija el enlace adecuado: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/segmentation-hyperparameters.html) **Opcional** Valores válidos: `adam`, `adagrad`, `nag`, `rmsprop`, `sgd`  Valor predeterminado: `sgd`  | 
| syncbn |  Si se establece en`True`, la media y la varianza de la normalización del lote se calculan para todas las muestras procesadas en. GPUs **Opcional**  Valores válidos: `True`, `False`  Valor predeterminado: `False`  | 
| validation\$1mini\$1batch\$1size |  El tamaño del lote para la validación. Un `mini_batch_size` grande suele dar lugar a una capacitación más rápida, pero podría hacer que se quedara sin memoria. El uso de memoria se ve afectado por los valores de los parámetros `mini_batch_size` e `image_shape`, y la arquitectura de núcleo.  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/es_es/sagemaker/latest/dg/segmentation-hyperparameters.html) **Opcional** Valores válidos: número entero positivo Valor predeterminado: 16  | 
| weight\$1decay |  El coeficiente de degradación de ponderación para el optimizador `sgd`. Cuando usa otros optimizadores, el algoritmo omite este parámetro.  **Opcional** Valores válidos: 0 < flotante < 1 Valor predeterminado: 0.0001  | 