As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Pré-treinamento contínuo (CPT) do Amazon Nova
O pré-treinamento contínuo (CPT) é uma técnica que amplia os recursos de um modelo de linguagem pré-treinado, treinando-o em novos dados específicos do domínio, preservando sua compreensão geral da linguagem. Ao contrário do ajuste fino, o CPT usa os mesmos objetivos não supervisionados do pré-treinamento original (como modelagem de linguagem mascarada ou causal) e não modifica a arquitetura do modelo.
O CPT é particularmente valioso quando você tem grandes quantidades de dados específicos de domínio não identificados (como textos médicos ou financeiros) e deseja melhorar o desempenho do modelo em áreas especializadas sem perder seus recursos gerais. Essa abordagem aprimora o desempenho de zero e poucos tiros em domínios-alvo sem exigir um extenso ajuste fino específico da tarefa.
Para obter instruções detalhadas sobre como usar o CPT com a personalização do modelo Amazon Nova, consulte a seção Continued Pre-Training (CPT) do guia do usuário do Amazon Nova.