Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Capacitación previa continua (CPT) de Amazon Nova
La formación previa continua (CPT) es una técnica que amplía las capacidades de un modelo de lenguaje previamente entrenado al entrenarlo con nuevos datos específicos de un dominio y, al mismo tiempo, preservar su comprensión general del lenguaje. A diferencia del ajuste preciso, la CPT utiliza los mismos objetivos sin supervisión que la formación previa original (como el modelado del lenguaje causal o enmascarado) y no modifica la arquitectura del modelo.
La CPT resulta especialmente útil cuando se dispone de grandes cantidades de datos específicos de un dominio sin etiquetar (como textos médicos o financieros) y se desea mejorar el rendimiento del modelo en áreas especializadas sin perder sus capacidades generales. Este enfoque mejora el rendimiento a cero y a corto plazo en los dominios específicos sin necesidad de realizar ajustes exhaustivos y específicos de las tareas.
Para obtener instrucciones detalladas sobre el uso de la CPT con la personalización de modelos de Amazon Nova, consulte la sección Continued Pre-Training (CPT) de la guía del usuario de Amazon Nova.