Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Formation préalable continue (CPT) sur Amazon Nova
La formation préalable continue (CPT) est une technique qui étend les capacités d'un modèle linguistique préentraîné en l'entraînant sur de nouvelles données spécifiques à un domaine tout en préservant sa compréhension générale de la langue. Contrairement au réglage précis, le CPT utilise les mêmes objectifs non supervisés que ceux de la pré-formation initiale (tels que la modélisation du langage masqué ou causal) et ne modifie pas l'architecture du modèle.
Le CPT est particulièrement utile lorsque vous disposez de grandes quantités de données spécifiques à un domaine non étiquetées (telles que des textes médicaux ou financiers) et que vous souhaitez améliorer les performances du modèle dans des domaines spécialisés sans perdre ses fonctionnalités générales. Cette approche améliore les performances de type « zero shot » ou « à dose limitée » dans des domaines ciblés, sans nécessiter de réglages spécifiques à une tâche spécifique.
Pour obtenir des instructions détaillées sur l'utilisation du CPT dans le cadre de la personnalisation des modèles Amazon Nova, consultez la section Formation préalable continue (CPT) du guide de l'utilisateur d'Amazon Nova.