Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Iperparametri del modello personalizzato
Il seguente contenuto di riferimento descrive gli iperparametri disponibili per l'addestramento di ciascun modello personalizzato di Amazon Bedrock.
Un iperparametro è un parametro che controlla il processo di addestramento, come la velocità di apprendimento o il numero di epoche. Imposti iperparametri per la formazione su modelli personalizzati quando invii il lavoro di fine tuning con la console Amazon Bedrock o chiamando l'operatore dell'CreateModelCustomizationJobAPI.
I modelli Amazon Nova Lite, Amazon Nova Micro e Amazon Nova Pro supportano i seguenti iperparametri per la personalizzazione del modello. Per ulteriori informazioni, consulta Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso.
Per informazioni sul fine-tuning dei modelli Amazon Nova, consultare Eseguire il fine-tuning dei modelli Amazon Nova.
Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 5 | 2 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 1,00E-6 | 1,00E-4 | 1,00E-5 |
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 100 | 10 |
Il numero di epoch predefinito è 2, che funziona nella maggior parte dei casi. In generale, set di dati di dimensioni maggiori richiedono meno epoch per la convergenza, mentre set di dati di dimensioni minori prevedono più epoch. Una convergenza più rapida potrebbe essere ottenuta anche aumentando la velocità di apprendimento, ma ciò è meno auspicabile perché potrebbe portare all’instabilità dell’addestramento al momento della convergenza. Consigliamo di iniziare con gli iperparametri predefiniti, che si basano sulla nostra valutazione di attività con complessità e dimensioni dei dati diverse.
Il tasso di apprendimento aumenterà gradualmente fino al valore impostato durante il riscaldamento. Pertanto, è consigliabile evitare un valore elevato durante il riscaldamento per un campione di addestramento di piccole dimensioni, poiché il tasso di apprendimento potrebbe non raggiungere mai il valore impostato durante il processo di addestramento. Consigliamo di impostare le fasi di riscaldamento dividendo la dimensione del set di dati per 640 per Amazon Nova Micro, 160 per Amazon Nova Lite e 320 per Amazon Nova Pro.
Il modello Amazon Nova Canvas supporta i seguenti iperparametri per la personalizzazione.
| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|
| Dimensione batch | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 8 | 192 | 8 |
| Fasi | stepCount | Numero di volte in cui il modello viene esposto a ciascun batch | 10 | 20.000 | 500 |
| Tasso di apprendimento | learningRate | Velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 1.00E-7 | 1,00E-4 | 1,00E-5 |
Il modello Amazon Titan Text Premier supporta i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 5 | 2 |
| Dimensione del batch (micro) | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 1 | 1 | 1 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 1,00E-07 | 1,00E-05 | 1,00E-06 |
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 20 | 5 |
I modelli Amazon Titan Text, come Lite ed Express, supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 10 | 5 |
| Dimensione del batch (micro) | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 1 | 64 | 1 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 0,0 | 1 | 1.00E-5 |
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 250 | 5 |
Il modello di Generatore di immagini Amazon Titan G1 supporta i seguenti iperparametri per la personalizzazione.
Nota
stepCount non ha un valore predefinito e deve essere specificato. stepCount supporta il valore auto. auto dà priorità alle prestazioni del modello rispetto ai costi di addestramento determinando automaticamente un numero in base alla dimensione del set di dati. I costi dei job di addestramento dipendono dal numero determinato da auto. Per capire come viene calcolato il costo dei job e per vedere alcuni esempi, consulta Prezzi di Amazon Bedrock
| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|
| Dimensione batch | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 8 | 192 | 8 |
| Fasi | stepCount | Numero di volte in cui il modello viene esposto a ciascun batch | 10 | 40.000 | N/D |
| Tasso di apprendimento | learningRate | Velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 1.00E-7 | 1 | 1.00E-5 |
Il modello Amazon Titan Multimodal Embeddings G1 supporta i seguenti iperparametri per la personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
Nota
epochCount non ha un valore predefinito e deve essere specificato. epochCount supporta il valore Auto. Auto dà priorità alle prestazioni del modello rispetto ai costi di addestramento determinando automaticamente un numero in base alla dimensione del set di dati. I costi dei job di addestramento dipendono dal numero determinato da Auto. Per capire come viene calcolato il costo dei job e per vedere alcuni esempi, consulta Prezzi di Amazon Bedrock
| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 100 | N/D |
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 256 | 9.216 | 576 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 5,00E-8 | 1 | 5,00E-5 |
I modelli Anthropic Claude 3 supportano i seguenti iperparametri di personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
| Nome console | Nome API | Definizione | Predefinita | Minimo | Massimo |
|---|---|---|---|---|---|
| Numero di epoch | epochCount | Numero massimo di iterazioni nell’intero set di dati di addestramento | 2 | 1 | 10 |
| Dimensione batch | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 32 | 4 | 256 |
| Moltiplicatore del tasso di apprendimento | learningRateMultiplier | Moltiplicatore che influisce sul tasso di apprendimento con cui i parametri vengono aggiornati dopo ogni batch | 1 | 0.1 | 2 |
| Soglia per l’arresto anticipato | earlyStoppingThreshold | Miglioramento minimo delle perdite di convalida richiesto per prevenire l’interruzione anticipata del processo di addestramento | 0.001 | 0 | 0.1 |
| Tolleranza per l’arresto anticipato | earlyStoppingPatience | Tolleranza alla stagnazione nella metrica relativa alle perdite di convalida prima dell’interruzione del processo di addestramento | 2 | 1 | 10 |
I modelli di Cohere Command e Cohere Command Light supportano i seguenti iperparametri di personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
Nota
La quota epochCount è modificabile.
| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 100 | 1 |
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 8 | 8 (Command) 32 (Light) |
8 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch. Se utilizzi un set di dati di convalida, è consigliabile non specificare un valore per learningRate. |
virgola mobile | 5.00E-6 | 0.1 | 1,00E-5 |
| Soglia per l’arresto anticipato | earlyStoppingThreshold | Il miglioramento minimo delle perdite richiesto per prevenire l’interruzione prematura del processo di addestramento | virgola mobile | 0 | 0.1 | 0.01 |
| Tolleranza per l’arresto anticipato | earlyStoppingPatience | La tolleranza alla stagnazione nella metrica delle perdite prima dell’interruzione del processo di addestramento | intero | 1 | 10 | 6 |
| Percentuale di valutazione | evalPercentage |
La percentuale del set di dati allocato per la valutazione del modello, se non fornisci un set di dati di convalida separato |
virgola mobile | 5 | 50 | 20 |
I modelli Meta Llama 3.1 8B e 70B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
Nota
La quota epochCount è modificabile.
| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | 1 | 10 | 5 |
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello | 1 | 1 | 1 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 5.00E-6 | 0.1 | 1,00E-4 |
I modelli Meta Llama 3.2 1B, 3B, 11B e 90B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | 1 | 10 | 5 |
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello | 1 | 1 | 1 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 5.00E-6 | 0.1 | 1,00E-4 |