本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
持續預先訓練 (CPT)
持續訓練前 (CPT) 是一種訓練技術,透過向特定網域或企業的其他未標記文字公開基礎模型,以延伸訓練前階段。與需要標記的輸入輸出對的監督式微調不同,CPT 會在原始文件上進行訓練,以協助模型更深入了解新網域、學習特定網域的術語和撰寫模式,以及適應特定內容類型或主題領域。
當您有大量 (數十億個字符) 的網域特定文字資料,例如法律文件、醫學文獻、技術文件或專屬商業內容,而且您希望模型在該網域中開發原生流暢性時,這種方法特別有用。一般而言,在 CPT 階段之後,模型需要經過額外的指令調校階段,讓模型能夠使用新取得的知識並完成有用的任務。
支援的模型
CPT 適用於下列 Amazon Nova 模型:
-
Nova 1.0 (Micro、Lite、Pro)
-
Nova 2.0 (精簡型)
何時使用 Nova 1.0 與 Nova 2.0
Amazon Nova 系列模型提供多個價格效能操作點,可在準確度、速度和成本之間進行最佳化。
當您需要下列項目時,請選擇 Nova 2.0:
-
複雜分析任務的進階推理功能
-
編碼、數學和科學問題解決的卓越效能
-
更長的內容長度支援
-
更好的多語言效能
適用下列情況時,請選擇 Nova 1.0:
-
您的使用案例需要標準語言理解,而無需進階推理。
-
您想要最佳化以降低訓練和推論成本。
-
您的重點是教導模型領域特定的知識和行為,而不是複雜的推理任務。
-
您已驗證 Nova 1.0 的效能,不需要其他功能。
注意
較大的模型不一定會更好。在 Nova 1.0 和 Nova 2.0 模型之間進行選取時,請考慮成本效能權衡和您的特定業務需求。