Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Iperparametri di personalizzazione del modello Amazon Nova Understanding
I modelli Amazon Nova Lite, Amazon Nova Micro e Amazon Nova Pro supportano i seguenti iperparametri per la personalizzazione del modello. Per ulteriori informazioni, consulta Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso.
Per informazioni sul fine-tuning dei modelli Amazon Nova, consultare Eseguire il fine-tuning dei modelli Amazon Nova.
Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 5 | 2 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 1,00E-6 | 1,00E-4 | 1,00E-5 |
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 100 | 10 |
Il numero di epoch predefinito è 2, che funziona nella maggior parte dei casi. In generale, set di dati di dimensioni maggiori richiedono meno epoch per la convergenza, mentre set di dati di dimensioni minori prevedono più epoch. Una convergenza più rapida potrebbe essere ottenuta anche aumentando la velocità di apprendimento, ma ciò è meno auspicabile perché potrebbe portare all’instabilità dell’addestramento al momento della convergenza. Consigliamo di iniziare con gli iperparametri predefiniti, che si basano sulla nostra valutazione di attività con complessità e dimensioni dei dati diverse.
Il tasso di apprendimento aumenterà gradualmente fino al valore impostato durante il riscaldamento. Pertanto, è consigliabile evitare un valore elevato durante il riscaldamento per un campione di addestramento di piccole dimensioni, poiché il tasso di apprendimento potrebbe non raggiungere mai il valore impostato durante il processo di addestramento. Consigliamo di impostare le fasi di riscaldamento dividendo la dimensione del set di dati per 640 per Amazon Nova Micro, 160 per Amazon Nova Lite e 320 per Amazon Nova Pro.