

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 의미 체계 분할 하이퍼파라미터
<a name="segmentation-hyperparameters"></a>

다음 표에는 네트워크 아키텍처, 데이터 입력 및 훈련을 위해 Amazon SageMaker AI 의미 체계 분할 알고리즘에서 지원하는 하이퍼파라미터가 나와 있습니다. [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateTrainingJob.html) 요청의 `AlgorithmName`에 훈련을 위한 의미 체계 분류를 지정합니다.

**네트워크 아키텍처 하이퍼파라미터**


| 파라미터 이름 | 설명 | 
| --- | --- | 
| backbone |  알고리즘의 인코더 구성 요소에 사용되는 백본 **선택 사항** 유효값: `resnet-50`, `resnet-101`  기본값: `resnet-50`  | 
| use\$1pretrained\$1model |  백본에 사전 훈련된 모델을 사용할지 여부 **선택 사항** 유효값: `True`, `False`  기본값: `True`  | 
| algorithm |  의미 체계 분할에 사용할 알고리즘  **선택 사항** 유효한 값: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/segmentation-hyperparameters.html) 기본값: `fcn`  | 

**데이터 하이퍼파라미터**


| 파라미터 이름 | 설명 | 
| --- | --- | 
| num\$1classes |  분할할 클래스 수 **필수** 유효한 값: 2 ≤ 양수 ≤ 254  | 
| num\$1training\$1samples |  훈련 데이터의 샘플 수. 이 알고리즘은 이 값을 사용하여 학습률 스케줄러를 설정합니다. **필수** 유효한 값: 양수  | 
| base\$1size |  자르기 전에 이미지 크기를 재조정하는 방법을 정의합니다. 긴 크기의 길이는 0.5\$12.0 사이의 난수를 곱하는 `base_size`로 설정되도록 이미지 크기가 재조정되고, 종횡비를 유지하기 위해 짧은 크기가 계산됩니다. **선택 사항** 유효한 값: 양수 > 16 기본값: 520  | 
| crop\$1size |  훈련 중 입력 이미지의 이미지 크기. `base_size`에 따라 입력 이미지의 크기를 임의로 재조정한 다음 측면 길이 `crop_size`로 이미지를 임의의 사각형으로 자릅니다. `crop_size`는 자동으로 8의 배수로 반올림됩니다. **선택 사항** 유효한 값: 양수 > 16 기본값: 240  | 

**훈련 파라미터**


| 파라미터 이름 | 설명 | 
| --- | --- | 
| early\$1stopping |  훈련 중 조기 중지 로직 사용 여부 **선택 사항** 유효값: `True`, `False`  기본값: `False`  | 
| early\$1stopping\$1min\$1epochs |  실행해야 하는 최소 epoch 수 **선택 사항** 유효한 값: 정수 기본값: 5  | 
| early\$1stopping\$1patience |  알고리즘이 조기 중지를 강제하기 전에 성능 저하에 대한 내결함성을 충족하는 epoch 수 **선택 사항** 유효한 값: 정수 기본값: 4  | 
| early\$1stopping\$1tolerance |  훈련 작업 mIOU에서 점수의 상대적 개선이 이 값보다 작은 경우 조기 중지는 해당 epoch가 개선되지 않았다고 간주합니다. `early_stopping` = `True`인 경우에만 사용합니다. **선택 사항** 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본 값: 0.0  | 
| epochs |  훈련할 epoch 수 **선택 사항** 유효한 값: 양수 기본값: 10  | 
| gamma1 |  `rmsprop`에 대한 기울기 제곱의 이동 평균에 대한 감소 계수. `rmsprop`에만 사용됩니다. **선택 사항** 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본 값: 0.9  | 
| gamma2 |  `rmsprop`에 대한 모멘텀 계수 **선택 사항** 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본 값: 0.9  | 
| learning\$1rate |  초기 학습률. **선택 사항** 유효한 값: 0 < 부동 소수점 ≤ 1 기본값: 0.001  | 
| lr\$1scheduler |  시간에 따른 감소를 제어하는 학습률 일정의 셰이프(모양) **선택 사항** 유효한 값:  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/segmentation-hyperparameters.html) 기본값: `poly`  | 
| lr\$1scheduler\$1factor |  `lr_scheduler`가 `step`으로 설정된 경우, `lr_scheduler_step`에 의해 지정된 각 에포크 이후 `learning_rate`를 감산(곱하기) 할 비율입니다. 그렇지 않으면 무시됩니다. **선택 사항** 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본값: 0.1  | 
| lr\$1scheduler\$1step |  `learning_rate`가 `lr_scheduler_factor`로 감소(곱하기)된 후 쉼표로 구분된 에포크 목록입니다. 예를 들어 값이 `"10, 20"`으로 설정된 경우 `learning-rate`는 10번째 에포크 이후 `lr_scheduler_factor`만큼 감소하고, 20번째 에포크 이후 이 요소만큼 다시 감소합니다. `lr_scheduler`가 `step`으로 설정된 경우 **조건부 필수**. 그렇지 않으면 무시됩니다. 유효한 값: 문자열 기본값: (사용 시 값이 필요하므로 기본값은 없습니다.)  | 
| mini\$1batch\$1size |  훈련용 배치 크기. `mini_batch_size`가 크면 일반적으로 훈련 속도가 빨라지지만 메모리 부족해질 수 있습니다. 메모리 사용량은 `mini_batch_size` 및 `image_shape` 파라미터의 값과 백본 아키텍처의 영향을 받습니다. **선택 사항** 유효한 값: 양수  기본값: 16  | 
| momentum |  `sgd` 옵티마이저의 모멘텀. 다른 옵티마이저를 사용하는 경우 의미 체계 분할 알고리즘은 이 파라미터를 무시합니다. **선택 사항** 유효한 값: 0 < 부동 소수점 ≤ 1 기본 값: 0.9  | 
| optimizer |  옵티마이저 유형. 옵티마이저에 대한 자세한 내용을 보려면 해당 링크를 선택하세요. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/segmentation-hyperparameters.html) **선택 사항** 유효한 값: `adam`, `adagrad`, `nag`, `rmsprop`, `sgd`  기본값: `sgd`  | 
| syncbn |  `True`로 설정하면 GPU에서 처리된 모든 샘플에 대한 배치 정규화 평균과 분산이 계산됩니다. **선택 사항**  유효값: `True`, `False`  기본값: `False`  | 
| validation\$1mini\$1batch\$1size |  검증용 배치 크기. `mini_batch_size`가 크면 일반적으로 훈련 속도가 빨라지지만 메모리기 부족해질 수 있습니다. 메모리 사용량은 `mini_batch_size` 및 `image_shape` 파라미터의 값과 백본 아키텍처의 영향을 받습니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/segmentation-hyperparameters.html) **선택 사항** 유효한 값: 양수 기본값: 16  | 
| weight\$1decay |  `sgd` 옵티마이저에 대한 가중치 감소 계수. 다른 옵티마이저를 사용하는 경우 이 알고리즘은 이 파라미터를 무시합니다. **선택 사항** 유효한 값: 0 < 부동 소수점 < 1 기본값: 0.0001  | 