

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 객체 감지 - TensorFlow 하이퍼파라미터
<a name="object-detection-tensorflow-Hyperparameter"></a>

하이퍼파라미터는 기계 학습 모델이 학습을 시작하기 전에 설정되는 파라미터입니다. Amazon SageMaker AI 기본 제공 객체 감지 - TensorFlow 알고리즘이 지원하는 하이퍼파라미터는 다음과 같습니다. 하이퍼파라미터 튜닝 관련 정보는 [객체 감지 - TensorFlow 모델 튜닝](object-detection-tensorflow-tuning.md) 섹션을 참조하세요.


| 파라미터 이름 | 설명 | 
| --- | --- | 
| batch\$1size |  훈련용 배치 크기. 유효한 값: 양수. 기본값: `3`.  | 
| beta\$11 |  `"adam"` 최적화 프로그램용 beta1. 1차 추정치의 지수 감소율을 나타냅니다. 다른 옵티마이저의 경우 무시됩니다. 유효한 값: 부동 소수점, 범위: [`0.0`, `1.0`]. 기본값: `0.9`.  | 
| beta\$12 |  `"adam"` 최적화 프로그램용 beta2. 2차 추정치의 지수 감소율을 나타냅니다. 다른 옵티마이저의 경우 무시됩니다. 유효한 값: 부동 소수점, 범위: [`0.0`, `1.0`]. 기본값: `0.999`.  | 
| early\$1stopping |  `"True"`를 통해 훈련 중 조기 중지 로직을 사용하도록 설정합니다. `"False"`인 경우에는 조기 중지를 사용하지 않습니다. 유효한 값: 문자열, 다음 중 하나: (`"True"` 또는 `"False"`). 기본값: `"False"`.  | 
| early\$1stopping\$1min\$1delta | 개선으로 인정받는 데 필요한 최소 변화. early\$1stopping\$1min\$1delta의 값보다 작은 절대 변화는 개선으로 인정되지 않습니다. early\$1stopping이 "True"로 설정된 경우에만 사용합니다.유효한 값: 부동 소수점, 범위: [`0.0`, `1.0`].기본값: `0.0`. | 
| early\$1stopping\$1patience |  개선이 없는 상태에서도 훈련을 계속할 수 있는 에포크의 수. `early_stopping`이 `"True"`로 설정된 경우에만 사용합니다. 유효한 값: 양수. 기본값: `5`.  | 
| epochs |  훈련 epoch의 수. 유효한 값: 양수. 기본값: 소형 모델의 경우 `5`, 대형 모델의 경우 `1`  | 
| epsilon |  `"adam"`, `"rmsprop"`, `"adadelta"`, `"adagrad"` 최적화 프로그램의 엡실론입니다. 0으로 나눠지지 않도록 대개 작은 값으로 설정됩니다. 다른 옵티마이저의 경우 무시됩니다. 유효한 값: 부동 소수점, 범위: [`0.0`, `1.0`]. 기본값: `1e-7`.  | 
| initial\$1accumulator\$1value |  `"adagrad"` 최적화 프로그램 전용 누적기의 시작 값 또는 파라미터별 모멘텀 값. 다른 옵티마이저의 경우 무시됩니다. 유효한 값: 부동 소수점, 범위: [`0.0`, `1.0`]. 기본값: `0.1`.  | 
| learning\$1rate | 최적화 프로그램 학습률.유효한 값: 부동 소수점, 범위: [`0.0`, `1.0`].기본값: `0.001`. | 
| momentum |  `"sgd"` 및 `"nesterov"` 최적화 프로그램의 모멘텀. 다른 옵티마이저의 경우 무시됩니다. 유효한 값: 부동 소수점, 범위: [`0.0`, `1.0`]. 기본값: `0.9`.  | 
| optimizer |  옵티마이저 유형. 자세한 내용은 TensorFlow 설명서의 [최적화 프로그램](https://www.tensorflow.org/api_docs/python/tf/keras/optimizers)을 참조하세요. 유횻값: 문자열, 다음 중 하나: (`"adam"`, `"sgd"`, `"nesterov"`, `"rmsprop"`, ` "adagrad"`, `"adadelta"`). 기본값: `"adam"`.  | 
| reinitialize\$1top\$1layer |  `"Auto"`로 설정하면 미세 조정 중에 최상위 분류 계층 파라미터가 다시 초기화됩니다. 증분 훈련에서 최상위 분류 계층 파라미터는 `"True"`로 설정된 경우를 제외하면 다시 초기화되지 않습니다. 유효한 값: 문자열, 다음 중 하나: (`"Auto"`, `"True"` 또는 `"False"`). 기본값: `"Auto"`.  | 
| rho |  `"adadelta"` 및 `"rmsprop"` 최적화 프로그램의 그라데이션에 대한 할인 계수입니다. 다른 옵티마이저의 경우 무시됩니다. 유효한 값: 부동 소수점, 범위: [`0.0`, `1.0`]. 기본값: `0.95`.  | 
| train\$1only\$1on\$1top\$1layer |  `"True"`인 경우 최상위 분류 계층 파라미터만 미세 조정됩니다. `"False"`인 경우 모든 모델 파라미터가 미세 조정됩니다. 유효한 값: 문자열, 다음 중 하나: (`"True"` 또는 `"False"`). 기본값: `"False"`.  | 