有监督的微调(Full FT、PEFT) - 亚马逊 SageMaker AI

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

有监督的微调(Full FT、PEFT)

微调是通过在目标数据集中训练预先训练的语言模型来使其适应特定任务或领域的过程。与培养一般语言理解能力的预训练不同,微调可以针对特定应用程序优化模型。

以下是关键微调技术的概述:

监督微调 (SFT)

监督微调 (SFT)

SFT 使用带有标签的所需输入和输出的示例来调整预训练模型。该模型学会生成与所提供的示例相匹配的响应,从而有效地教会它遵循特定的说明或以特定风格生成输出。SFT 通常涉及根据任务特定数据更新所有模型参数。

有关在 Amazon Nova 模型自定义中使用 SFT 的详细说明,请参阅 Amazon Nov a 用户指南中的监督微调 (SFT) 部分

参数高效微调 (PEFT)

参数高效微调 (PEFT)

低等级适应 (LoRa) 等PEFT技术在微调期间仅修改模型参数的一小部分,从而显著降低了计算和内存需求。LoRa 的工作原理是在现有模型权重中添加小型的可训练 “适配器” 矩阵,从而在保持大部分原始模型冻结的同时实现有效的适应。这种方法允许在有限的硬件上对大型模型进行微调。

有关在 Amazon Nova 模型自定义中使用 PEFT 的详细说明,请参阅 Amazon Nova 用户指南中的参数高效微调 (PEFT) 部分