Amazon Nova 지속적 사전 훈련(CPT) - Amazon SageMaker AI

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

Amazon Nova 지속적 사전 훈련(CPT)

지속적 사전 훈련(CPT)은 일반적인 언어 이해를 유지하면서 새로운 도메인별 데이터에 대해 훈련하여 사전 훈련된 언어 모델의 기능을 확장하는 기술입니다. 미세 조정과 달리 CPT는 원래 사전 훈련(마스킹 또는 인과적 언어 모델링 등)과 동일한 비지도 목표를 사용하며 모델의 아키텍처를 수정하지 않습니다.

CPT는 레이블이 지정되지 않은 도메인별 데이터(예: 의료 또는 금융 텍스트)가 많고 일반적인 기능을 잃지 않으면서 특수 영역에서 모델의 성능을 개선하고 싶을 때 특히 유용합니다. 이 접근 방식은 광범위한 작업별 미세 조정 없이 대상 도메인에서 제로샷 및 제로샷 성능을 향상시킵니다.

Amazon Nova 모델 사용자 지정과 함께 CPT를 사용하는 방법에 대한 자세한 지침은 Amazon Nova 사용 설명서지속적인 사전 훈련(CPT) 섹션을 참조하세요.