本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
監督微調 (完整 FT、PEFT)
微調是透過在目標資料集上訓練特定任務或網域來調整預先訓練語言模型的程序。與建立一般語言理解的預先訓練不同,微調可針對特定應用程式最佳化模型。
以下是關鍵微調技術的概觀:
受管微調 (SFT)
受管微調 (SFT)
SFT 會使用所需輸入和輸出的標籤範例來調整預先訓練的模型。此模型會學習產生符合所提供範例的回應,有效地教導其遵循特定指示或以特定樣式產生輸出。SFT 通常涉及根據任務特定資料更新所有模型參數。
如需搭配 Amazon Nova 模型自訂使用 SFT 的詳細說明,請參閱 Amazon Nova 使用者指南中的受監督微調 (SFT) 一節。
參數效率微調 (PEFT)
參數效率微調 (PEFT)
諸如 Low-Rank Adaptation (LoRA) 等 PEFT 技術只會在微調期間修改一小部分模型參數,大幅降低運算和記憶體需求。LoRA 的運作方式是將小型可訓練的「轉接器」矩陣新增至現有模型權重,允許有效調整,同時保持大多數原始模型的凍結狀態。此方法可在有限的硬體上微調大型模型。
如需搭配 Amazon Nova 模型自訂使用 PEFT 的詳細說明,請參閱 Amazon Nova 使用者指南中的參數效率微調 (PEFT) 一節。