教師ありファインチューニング (SFT) - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

教師ありファインチューニング (SFT)

SFT トレーニングプロセスは、主に 2 つのステージで構成されます。

  • データ準備: 確立されたガイドラインに従って、データセットを作成、クリーンアップ、または必要な構造に再フォーマットします。入力、出力、補助情報 (推論トレースやメタデータなど) が適切に整列され、フォーマットされていることを確認します。

  • トレーニング設定: モデルのトレーニング方法を定義します。SageMaker HyperPod を使用する場合、この設定は以下を含む YAML レシピファイルに書き込まれます。

    • データソースパス (トレーニングデータセットと検証データセット)

    • 主要なハイパーパラメータ (エポック、学習レート、バッチサイズ)

    • オプションのコンポーネント (分散トレーニングパラメータなど)

ノバモデルの比較と選択

Amazon Nova 2.0 は、Amazon Nova 1.0 よりも大規模で多様なデータセットでトレーニングされたモデルです。主要な改善点は以下のとおりです。

  • 明示的な推論モードのサポートによる推論機能の強化

  • 追加言語での多言語パフォーマンスの向上

  • コーディングやツールの使用を含む複雑なタスクのパフォーマンスの向上

  • コンテキスト処理を拡張し、コンテキストの長さを長くして精度と安定性を向上

Nova 1.0 と Nova 2.0 を使用するタイミング

次の場合に Amazon Nova 2.0 を選択します。

  • 高度な推論機能を備えた優れたパフォーマンスが必要です

  • 多言語サポートまたは複雑なタスク処理が必要

  • コーディング、ツール呼び出し、または分析タスクの結果を改善する必要がある

次の場合は、Amazon Nova 1.0 を選択します。

  • ユースケースでは、高度な推論なしで標準言語を理解する必要があります。

  • Amazon Nova 1.0 でパフォーマンスが既に検証されており、追加の機能は必要ありません