翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
教師ありファインチューニング (SFT)
SFT トレーニングプロセスは、主に 2 つのステージで構成されます。
-
データ準備: 確立されたガイドラインに従って、データセットを作成、クリーンアップ、または必要な構造に再フォーマットします。入力、出力、補助情報 (推論トレースやメタデータなど) が適切に整列され、フォーマットされていることを確認します。
-
トレーニング設定: モデルのトレーニング方法を定義します。SageMaker HyperPod を使用する場合、この設定は以下を含む YAML レシピファイルに書き込まれます。
-
データソースパス (トレーニングデータセットと検証データセット)
-
主要なハイパーパラメータ (エポック、学習レート、バッチサイズ)
-
オプションのコンポーネント (分散トレーニングパラメータなど)
-
ノバモデルの比較と選択
Amazon Nova 2.0 は、Amazon Nova 1.0 よりも大規模で多様なデータセットでトレーニングされたモデルです。主要な改善点は以下のとおりです。
-
明示的な推論モードのサポートによる推論機能の強化
-
追加言語での多言語パフォーマンスの向上
-
コーディングやツールの使用を含む複雑なタスクのパフォーマンスの向上
-
コンテキスト処理を拡張し、コンテキストの長さを長くして精度と安定性を向上
Nova 1.0 と Nova 2.0 を使用するタイミング
次の場合に Amazon Nova 2.0 を選択します。
-
高度な推論機能を備えた優れたパフォーマンスが必要です
-
多言語サポートまたは複雑なタスク処理が必要
-
コーディング、ツール呼び出し、または分析タスクの結果を改善する必要がある
次の場合は、Amazon Nova 1.0 を選択します。
-
ユースケースでは、高度な推論なしで標準言語を理解する必要があります。
-
Amazon Nova 1.0 でパフォーマンスが既に検証されており、追加の機能は必要ありません