翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon Nova モデルカスタマイズハイパーパラメータについて
Amazon Nova Lite、、および Amazon Nova ProモデルはAmazon Nova Micro、モデルのカスタマイズに次の 3 つのハイパーパラメータをサポートしています。詳細については、「モデルをカスタマイズしてユースケースのパフォーマンスを向上させる」を参照してください。
Amazon Nova モデルの微調整の詳細については、「モデルの微調整」を参照してくださいAmazon Nova。
指定したエポックの数により、より多くのトークンを処理することでモデルのカスタマイズコストが増加します。各エポックは、トレーニングデータセット全体を 1 回処理します。料金に関する詳細については、「Amazon Bedrock の料金
ハイパーパラメータ (コンソール) | ハイパーパラメータ (API) | 定義 | タイプ | 最小値 | 最大値 | デフォルト |
---|---|---|---|---|---|---|
エポック | epochCount | トレーニングデータセット全体を通した反復回数。 | integer | 1 | 5 | 2 |
学習率 | learningRate | 各バッチ後にモデルパラメータが更新されるレート | フロート | 1.00E-6 | 1.00E-4 | 1.00E-5 |
学習率のウォームアップステップ | learningRateWarmupSteps | 学習率が指定したレートまで徐々に増加する反復回数。 | integer | 0 | 100 | 10 |
デフォルトのエポック番号は 2 で、ほとんどの場合機能します。一般的に、データセットが大きいほど収束に必要なエポックは少なくなりますが、データセットが小さいほど収束に必要なエポックは少なくなります。学習速度を上げることで収束を速めることもできますが、収束時にトレーニングが不安定になる可能性があるため、これはあまり望ましくありません。デフォルトのハイパーパラメータから始めることをお勧めします。これは、さまざまな複雑さとデータサイズのタスクにわたる評価に基づいています。
ウォームアップ中は、学習レートが設定値に徐々に増加します。したがって、トレーニングサンプルが小さい場合は、大きなウォームアップ値を避けることをお勧めします。これは、トレーニングプロセス中に学習レートが設定値に到達しない可能性があるためです。ウォームアップステップを設定するには、データセットサイズを の場合は 640Amazon Nova Micro、 の場合は 160Amazon Nova Lite、 の場合は 320 で割ることをお勧めしますAmazon Nova Pro。