

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Hiperparâmetros de Segmentação semântica
<a name="segmentation-hyperparameters"></a>

As tabelas a seguir listam os hiperparâmetros suportados pelo algoritmo de segmentação semântica Amazon SageMaker AI para arquitetura de rede, entradas de dados e treinamento. Você especifica a Segmentação semântica para treinamento no`AlgorithmName` da solicitação [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html).

**Hiperparâmetros de arquitetura de rede**


| Nome do parâmetro | Description | 
| --- | --- | 
| backbone |  O backbone a ser usado para o componente codificador do algoritmo. **Opcional** Valores válidos: `resnet-50`, `resnet-101`  Valor padrão: `resnet-50`  | 
| use\$1pretrained\$1model |  Se um modelo pré-treinado deve ou não ser usado para o backbone. **Opcional** Valores válidos: `True`, `False` Valor padrão: `True`  | 
| algorithm |  O algoritmo a ser usado para a segmentação semântica.  **Opcional** Valores válidos: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/segmentation-hyperparameters.html) Valor padrão: `fcn`  | 

**Hiperparâmetros de dados**


| Nome do parâmetro | Description | 
| --- | --- | 
| num\$1classes |  O número de classes para segmentar. **Obrigatório** Valores válidos: 2 ≤ número inteiro positivo ≤ 254  | 
| num\$1training\$1samples |  O número de amostras nos dados de treinamento. O algoritmo usa esse valor para configurar o planejador de taxa de aprendizagem. **Obrigatório** Valores válidos: inteiro positivo  | 
| base\$1size |  Define como as imagens são redimensionadas antes do corte. As imagens são redimensionadas de modo que o comprimento de tamanho longo é definido como `base_size` multiplicado por um número aleatório de 0,5 a 2,0, e o tamanho curto é calculado para preservar a proporção. **Opcional** Valores válidos: número inteiro positivo > 16 Valor padrão: 520  | 
| crop\$1size |  O tamanho de imagem para entrada durante o treinamento. Redimensionamos aleatoriamente a imagem de entrada com base em `base_size` e, depois, fazemos um corte quadrado aleatório com comprimento lateral igual a `crop_size`. Os `crop_size` serão arredondados automaticamente para múltiplos de 8. **Opcional** Valores válidos: número inteiro positivo > 16 Valor padrão: 240  | 

**Hiperparâmetros de treinamento**


| Nome do parâmetro | Description | 
| --- | --- | 
| early\$1stopping |  Se a lógica de interrupção precoce deve ou não ser usada durante o treinamento. **Opcional** Valores válidos: `True`, `False` Valor padrão: `False`  | 
| early\$1stopping\$1min\$1epochs |  O número mínimo de epochs que devem ser executados. **Opcional** Valores válidos: inteiro Valor padrão: 5  | 
| early\$1stopping\$1patience |  O número de epochs que atendem à tolerância de desempenho inferior antes que o algoritmo imponha uma interrupção precoce. **Opcional** Valores válidos: inteiro Valor padrão: 4  | 
| early\$1stopping\$1tolerance |  Se a melhoria relativa da pontuação do trabalho de treinamento, mIOU, for menor que esse valor, a interrupção precoce considerará que o epoch não melhorou. Usado apenas quando `early_stopping` = `True`. **Opcional** Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.0  | 
| epochs |  O número de epochs com os quais treinar. **Opcional** Valores válidos: inteiro positivo Valor padrão: 10  | 
| gamma1 |  O fator de degradação para a média móvel do gradiente quadrado para `rmsprop`. Usado apenas para `rmsprop`. **Opcional** Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.9  | 
| gamma2 |  O fator de dinâmica para `rmsprop`. **Opcional** Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.9  | 
| learning\$1rate |  A taxa de aprendizado inicial.  **Opcional** Valores válidos: 0 < flutuante ≤ 1 Valor padrão: 0.001  | 
| lr\$1scheduler |  A forma do cronograma de taxa de aprendizagem que controla sua diminuição ao longo do tempo. **Opcional** Valores válidos:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/segmentation-hyperparameters.html) Valor padrão: `poly`  | 
| lr\$1scheduler\$1factor |  Se `lr_scheduler` estiver definido como `step`, a proporção pela qual reduzir (multiplicar) o `learning_rate` após cada uma dos epochs especificados pelo `lr_scheduler_step`. Caso contrário, ele será ignorado. **Opcional** Valores válidos: 0 ≤ flutuante ≤ 1 Valor padrão: 0.1  | 
| lr\$1scheduler\$1step |  Uma lista delimitada por vírgula dos epochs após os quais a `learning_rate` é reduzida (multiplicada) por um `lr_scheduler_factor`. Por exemplo, se o valor for definido como `"10, 20"`, a `learning-rate` será reduzida pelo `lr_scheduler_factor` após o 10º epoch e novamente por esse fator após o 20º epoch. **Obrigatório condicionalmente** se o `lr_scheduler` estiver definido como `step`. Caso contrário, ele será ignorado. Valores válidos: string Valor padrão: (Sem padrão, pois o valor é obrigatório quando usado.)  | 
| mini\$1batch\$1size |  O tamanho do lote para treinamento. Usar um `mini_batch_size` grande geralmente resulta em um treinamento mais rápido, mas pode causar falta de memória. O uso da memória é afetado pelos valores dos parâmetros `mini_batch_size` e `image_shape`, e da arquitetura de backbone. **Opcional** Valores válidos: inteiro positivo  Valor padrão: 16  | 
| momentum |  A dinâmica do otimizador `sgd`. Quando você usa outros otimizadores, o algoritmo de segmentação semântica ignora esse parâmetro. **Opcional** Valores válidos: 0 < flutuante ≤ 1 Valor padrão: 0.9  | 
| optimizer |  O tipo de otimizador. Para obter mais informações sobre um otimizador, escolha o link apropriado: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/segmentation-hyperparameters.html) **Opcional** Valores válidos: `adam`, `adagrad`, `nag`, `rmsprop`, `sgd`  Valor padrão: `sgd`  | 
| syncbn |  Se definido como`True`, a média e a variância da normalização do lote são calculadas em todas as amostras processadas no. GPUs **Opcional**  Valores válidos: `True`, `False`  Valor padrão: `False`  | 
| validation\$1mini\$1batch\$1size |  O tamanho do lote para validação. Um `mini_batch_size` grande geralmente resulta em um treinamento mais rápido, mas pode causar falta de memória. O uso da memória é afetado pelos valores dos parâmetros `mini_batch_size` e `image_shape`, e da arquitetura de backbone.  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/pt_br/sagemaker/latest/dg/segmentation-hyperparameters.html) **Opcional** Valores válidos: inteiro positivo Valor padrão: 16  | 
| weight\$1decay |  O coeficiente de degradação do peso do otimizador `sgd`. Quando você usa outros otimizadores, o algoritmo ignora esse parâmetro.  **Opcional** Valores válidos: 0 < flutuante < 1 Valor padrão: 0.0001  | 