教師ありファインチューニング (フル FT、PEFT) - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

教師ありファインチューニング (フル FT、PEFT)

ファインチューニングは、ターゲットデータセットでトレーニングすることで、事前トレーニング済みの言語モデルを特定のタスクまたはドメインに適応させるプロセスです。一般的な言語理解を構築する事前トレーニングとは異なり、ファインチューニングは特定のアプリケーションのモデルを最適化します。

教師ありファインチューニング (SFT)

教師ありファインチューニング (SFT)

SFT は、必要な入出力のラベル付き例を使用して、事前トレーニング済みのモデルを適応させます。このモデルは、提供された例に一致するレスポンスを生成する方法を学習し、特定の指示に従うか、特定のスタイルで出力を生成するように効果的にトレーニングします。通常、SFT では、タスク固有のデータに基づいてすべてのモデルパラメータを更新する必要があります。

Amazon Nova モデルのカスタマイズで SFT を使用する詳細な手順については、Amazon Nova ユーザーガイド「Supervised fine-tuning (SFT)」セクションを参照してください。

パラメータ効率の高いファインチューニング (PEFT)

パラメータ効率の高いファインチューニング (PEFT)

Low-Rank Adaptation (LoRA) などの PEFT 手法は、微調整中にモデルパラメータの小さなサブセットのみを変更し、計算要件とメモリ要件を大幅に削減します。LoRA は、既存のモデルの重みに小さなトレーニング可能な「アダプタ」マトリックスを追加することで機能し、元のモデルのほとんどをフリーズさせながら効果的な適応を可能にします。このアプローチにより、限られたハードウェアで大規模なモデルを微調整できます。

Amazon Nova モデルのカスタマイズで PEFT を使用する詳細な手順については、Amazon Nova ユーザーガイド「パラメータ効率の微調整 (PEFT)」セクションを参照してください。