Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Amazon NovaComprensione degli iperparametri di personalizzazione del modello
I Amazon Nova Pro modelli Amazon Nova LiteAmazon Nova Micro, e supportano i seguenti tre iperparametri per la personalizzazione dei modelli. Per ulteriori informazioni, consulta Personalizza il tuo modello per migliorarne le prestazioni per il tuo caso d'uso.
Per informazioni sulla regolazione fine dei modelli Amazon Nova, consulta Modelli di ottimizzazione Amazon Nova.
Il numero di epoche specificate aumenta i costi di personalizzazione del modello elaborando più token. Ogni epoca elabora l'intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta i prezzi di Amazon Bedrock
Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita |
---|---|---|---|---|---|---|
Epoche | epochCount | Il numero di iterazioni nell'intero set di dati di addestramento | integer | 1 | 5 | 2 |
Velocità di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | float | 1,00E-6 | 1,00E-4 | 1.00E-5 |
Fasi di riscaldamento della velocità di apprendimento | FasilearningRateWarmup | Il numero di iterazioni su cui la velocità di apprendimento viene gradualmente aumentata fino alla velocità specificata | integer | 0 | 100 | 10 |
Il numero di epoca predefinito è 2, che funziona nella maggior parte dei casi. In generale, i set di dati più grandi richiedono meno epoche per la convergenza, mentre i set di dati più piccoli richiedono più epoche per convergere. Una convergenza più rapida potrebbe essere ottenuta anche aumentando il tasso di apprendimento, ma ciò è meno auspicabile perché potrebbe portare all'instabilità della formazione al momento della convergenza. Consigliamo di iniziare con gli iperparametri predefiniti, che si basano sulla nostra valutazione di attività con complessità e dimensioni dei dati diverse.
Il tasso di apprendimento aumenterà gradualmente fino al valore impostato durante il riscaldamento. Pertanto, si consiglia di evitare un valore di riscaldamento elevato quando il campione di allenamento è piccolo, poiché il tasso di apprendimento potrebbe non raggiungere mai il valore impostato durante il processo di allenamento. Consigliamo di impostare le fasi di riscaldamento dividendo la dimensione del set di dati per 640 perAmazon Nova Micro, 160 per e 320 perAmazon Nova Lite. Amazon Nova Pro