기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon Nova 모델 사용자 지정 하이퍼파라미터 이해
Amazon Nova Lite, Amazon Nova Micro및 Amazon Nova Pro 모델은 모델 사용자 지정을 위해 다음 세 가지 하이퍼파라미터를 지원합니다. 자세한 내용은 모델을 사용자 지정하여 사용 사례에 맞게 성능 개선 단원을 참조하십시오.
Amazon Nova 모델 미세 조정에 대한 자세한 내용은 Amazon Nova 모델 미세 조정을 참조하세요.
지정하는 에포크 수는 더 많은 토큰을 처리하여 모델 사용자 지정 비용을 높입니다. 각 epoch는 전체 훈련 데이터 세트를 한 번 처리합니다. 요금에 대한 자세한 내용은 Amazon Bedrock 요금
하이퍼파라미터(콘솔) | 하이퍼파라미터(API) | 정의 | 유형 | 최소 | Maximum | Default |
---|---|---|---|---|---|---|
에포크 | epochCount | 전체 훈련 데이터 세트를 통한 반복 횟수 | 정수 | 1 | 5 | 2 |
학습률 | learningRate | 각 배치 이후 모델 파라미터가 업데이트되는 비율 | float | 1.00E-6 | 1.00E-4 | 1.00E-5 |
학습률 워밍업 단계 | learningRateWarmupSteps | 학습률이 지정된 비율까지 점진적으로 증가하는 반복 횟수입니다. | 정수 | 0 | 100 | 10 |
기본 에포크 번호는 2이며 대부분의 경우에 작동합니다. 일반적으로 더 큰 데이터 세트는 수렴하는 데 더 적은 에포크가 필요한 반면, 더 작은 데이터 세트는 수렴하는 데 더 많은 에포크가 필요합니다. 학습률을 높여서 수렴 속도를 높일 수도 있지만, 수렴 시 훈련 불안정으로 이어질 수 있으므로 이는 바람직하지 않습니다. 복잡성과 데이터 크기가 서로 다른 여러 작업에 대한 평가를 기반으로 하는 기본 하이퍼파라미터로 시작하는 것이 좋습니다.
워밍업 중에 학습 속도가 설정 값으로 점진적으로 증가합니다. 따라서 훈련 프로세스 중에 학습 속도가 설정 값에 도달하지 않을 수 있으므로 훈련 샘플이 작을 때는 큰 워밍업 값을 사용하지 않는 것이 좋습니다. 데이터 세트 크기를의 경우 640Amazon Nova Micro,의 경우 160Amazon Nova Lite,의 경우 320으로 나누어 워밍업 단계를 설정하는 것이 좋습니다Amazon Nova Pro.