Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Formazione preliminare continua (CPT) per Amazon Nova
Il Continued Pre-Training (CPT) è una tecnica che estende le funzionalità di un modello linguistico pre-addestrato addestrandolo su nuovi dati specifici del dominio e preservandone al contempo la comprensione generale del linguaggio. A differenza del fine-tuning, il CPT utilizza gli stessi obiettivi non supervisionati del pre-training originale (come la modellazione del linguaggio mascherato o causale) e non modifica l'architettura del modello.
Il CPT è particolarmente utile quando si dispone di grandi quantità di dati non etichettati specifici di un dominio (come testi medici o finanziari) e si desidera migliorare le prestazioni del modello in aree specializzate senza perdere le sue funzionalità generali. Questo approccio migliora le prestazioni zero-shot e few-shot in domini mirati senza richiedere un'ampia ottimizzazione specifica delle attività.
Per istruzioni dettagliate sull'uso del CPT con la personalizzazione del modello Amazon Nova, consulta la sezione Continued Pre-Training (CPT) della guida per l'utente di Amazon Nova.