翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon Nova モデルのカスタマイズにおけるハイパーパラメータの理解
Amazon Nova Lite モデル、Amazon Nova Micro モデル、Amazon Nova Pro モデルは、モデルのカスタマイズで以下の 3 つのハイパーパラメータをサポートしています。詳細については、「モデルをカスタマイズしてユースケースのパフォーマンスを向上させる」を参照してください。
Amazon Nova モデルのファインチューニングの詳細については、「Amazon Nova モデルのファインチューニング」を参照してください。
指定するエポックの数に応じて処理するトークン数が増大するため、モデルのカスタマイズコストが増加します。各エポックは、トレーニングデータセット全体を 1 回処理します。料金に関する詳細については、「Amazon Bedrock の料金
| ハイパーパラメータ (コンソール) | ハイパーパラメータ (API) | 定義 | タイプ | 最小値 | 最大値 | デフォルト |
|---|---|---|---|---|---|---|
| エポック | epochCount | トレーニングデータセット全体を通した反復回数。 | integer | 1 | 5 | 2 |
| 学習率 | learningRate | 各バッチ後にモデルパラメータが更新されるレート | float | 1.00E-6 | 1.00E-4 | 1.00E-5 |
| 学習率のウォームアップステップ | learningRateWarmupSteps | 学習率が指定したレートまで徐々に増加する反復回数。 | integer | 0 | 100 | 10 |
デフォルトのエポック数は 2 で、これでほとんどの場合機能します。通常、データセットが大規模になるほど収束に必要なエポック数は少なく、データセットが小規模になるほど収束に必要なエポック数は多くなります。学習率を上げることで収束を早めることもできますが、収束時にトレーニングが不安定になる可能性があるため、あまり望ましくありません。デフォルトのハイパーパラメータから始めることをお勧めします。これらのハイパーパラメータは、さまざまな複雑さやデータサイズのタスクを対象として評価に基づいています。
学習率はウォームアップ中に、設定値まで徐々に増加します。このため、トレーニングサンプルが少ない場合は、トレーニングプロセス中に学習率が設定値に到達しない可能性があるため、ウォームアップ値を高く設定しないことをお勧めします。ウォームアップステップを設定するには、データセットサイズを Amazon Nova Micro の場合は 640、Amazon Nova Lite の場合は 160、Amazon Nova Pro の場合は 320 で割って設定することをお勧めします。