Iperparametri del modello personalizzato - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Iperparametri del modello personalizzato

Il seguente contenuto di riferimento descrive gli iperparametri disponibili per l'addestramento di ciascun modello personalizzato di Amazon Bedrock.

Un iperparametro è un parametro che controlla il processo di addestramento, come la velocità di apprendimento o il numero di epoche. Imposti iperparametri per la formazione su modelli personalizzati quando invii il lavoro di fine tuning con la console Amazon Bedrock o chiamando l'operatore dell'CreateModelCustomizationJobAPI.

I modelli Amazon Nova Lite, Amazon Nova Micro e Amazon Nova Pro supportano i seguenti iperparametri per la personalizzazione del modello. Per ulteriori informazioni, consulta Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso.

Per informazioni sul fine-tuning dei modelli Amazon Nova, consultare Eseguire il fine-tuning dei modelli Amazon Nova.

Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock.

Iperparametro (console) Iperparametro (API) Definizione Tipo Minimo Massimo Predefinita
Epoch epochCount Il numero di iterazioni nell’intero set di dati di addestramento intero 1 5 2
Tasso di apprendimento learningRate La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch virgola mobile 1,00E-6 1,00E-4 1,00E-5
Fasi di riscaldamento del tasso di apprendimento FasilearningRateWarmup Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato intero 0 100 10

Il numero di epoch predefinito è 2, che funziona nella maggior parte dei casi. In generale, set di dati di dimensioni maggiori richiedono meno epoch per la convergenza, mentre set di dati di dimensioni minori prevedono più epoch. Una convergenza più rapida potrebbe essere ottenuta anche aumentando la velocità di apprendimento, ma ciò è meno auspicabile perché potrebbe portare all’instabilità dell’addestramento al momento della convergenza. Consigliamo di iniziare con gli iperparametri predefiniti, che si basano sulla nostra valutazione di attività con complessità e dimensioni dei dati diverse.

Il tasso di apprendimento aumenterà gradualmente fino al valore impostato durante il riscaldamento. Pertanto, è consigliabile evitare un valore elevato durante il riscaldamento per un campione di addestramento di piccole dimensioni, poiché il tasso di apprendimento potrebbe non raggiungere mai il valore impostato durante il processo di addestramento. Consigliamo di impostare le fasi di riscaldamento dividendo la dimensione del set di dati per 640 per Amazon Nova Micro, 160 per Amazon Nova Lite e 320 per Amazon Nova Pro.

Il modello Amazon Nova Canvas supporta i seguenti iperparametri per la personalizzazione.

Iperparametro (console) Iperparametro (API) Definizione Minimo Massimo Predefinita
Dimensione batch batchSize Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello 8 192 8
Fasi stepCount Numero di volte in cui il modello viene esposto a ciascun batch 10 20.000 500
Tasso di apprendimento learningRate Velocità con cui i parametri del modello vengono aggiornati dopo ogni batch 1.00E-7 1,00E-4 1,00E-5

Il modello Amazon Titan Text Premier supporta i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock.

Iperparametro (console) Iperparametro (API) Definizione Tipo Minimo Massimo Predefinita
Epoch epochCount Il numero di iterazioni nell’intero set di dati di addestramento intero 1 5 2
Dimensione del batch (micro) batchSize Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello intero 1 1 1
Tasso di apprendimento learningRate La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch virgola mobile 1,00E-07 1,00E-05 1,00E-06
Fasi di riscaldamento del tasso di apprendimento FasilearningRateWarmup Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato intero 0 20 5

I modelli Amazon Titan Text, come Lite ed Express, supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock.

Iperparametro (console) Iperparametro (API) Definizione Tipo Minimo Massimo Predefinita
Epoch epochCount Il numero di iterazioni nell’intero set di dati di addestramento intero 1 10 5
Dimensione del batch (micro) batchSize Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello intero 1 64 1
Tasso di apprendimento learningRate La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch virgola mobile 0,0 1 1.00E-5
Fasi di riscaldamento del tasso di apprendimento FasilearningRateWarmup Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato intero 0 250 5

Il modello di Generatore di immagini Amazon Titan G1 supporta i seguenti iperparametri per la personalizzazione.

Nota

stepCount non ha un valore predefinito e deve essere specificato. stepCount supporta il valore auto. auto dà priorità alle prestazioni del modello rispetto ai costi di addestramento determinando automaticamente un numero in base alla dimensione del set di dati. I costi dei job di addestramento dipendono dal numero determinato da auto. Per capire come viene calcolato il costo dei job e per vedere alcuni esempi, consulta Prezzi di Amazon Bedrock.

Iperparametro (console) Iperparametro (API) Definizione Minimo Massimo Predefinita
Dimensione batch batchSize Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello 8 192 8
Fasi stepCount Numero di volte in cui il modello viene esposto a ciascun batch 10 40.000 N/D
Tasso di apprendimento learningRate Velocità con cui i parametri del modello vengono aggiornati dopo ogni batch 1.00E-7 1 1.00E-5

Il modello Amazon Titan Multimodal Embeddings G1 supporta i seguenti iperparametri per la personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock.

Nota

epochCount non ha un valore predefinito e deve essere specificato. epochCount supporta il valore Auto. Auto dà priorità alle prestazioni del modello rispetto ai costi di addestramento determinando automaticamente un numero in base alla dimensione del set di dati. I costi dei job di addestramento dipendono dal numero determinato da Auto. Per capire come viene calcolato il costo dei job e per vedere alcuni esempi, consulta Prezzi di Amazon Bedrock.

Iperparametro (console) Iperparametro (API) Definizione Tipo Minimo Massimo Predefinita
Epoch epochCount Il numero di iterazioni nell’intero set di dati di addestramento intero 1 100 N/D
Dimensione batch batchSize Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello intero 256 9.216 576
Tasso di apprendimento learningRate La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch virgola mobile 5,00E-8 1 5,00E-5

I modelli Anthropic Claude 3 supportano i seguenti iperparametri di personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock.

Nome console Nome API Definizione Predefinita Minimo Massimo
Numero di epoch epochCount Numero massimo di iterazioni nell’intero set di dati di addestramento 2 1 10
Dimensione batch batchSize Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello 32 4 256
Moltiplicatore del tasso di apprendimento learningRateMultiplier Moltiplicatore che influisce sul tasso di apprendimento con cui i parametri vengono aggiornati dopo ogni batch 1 0.1 2
Soglia per l’arresto anticipato earlyStoppingThreshold Miglioramento minimo delle perdite di convalida richiesto per prevenire l’interruzione anticipata del processo di addestramento 0.001 0 0.1
Tolleranza per l’arresto anticipato earlyStoppingPatience Tolleranza alla stagnazione nella metrica relativa alle perdite di convalida prima dell’interruzione del processo di addestramento 2 1 10

I modelli di Cohere Command e Cohere Command Light supportano i seguenti iperparametri di personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock. Per ulteriori informazioni, consulta Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso.

Per informazioni sui Cohere modelli di fine tuning, consultate la documentazione su fine-tuning. Cohere https://docs.cohere.com/docs/

Nota

La quota epochCount è modificabile.

Iperparametro (console) Iperparametro (API) Definizione Tipo Minimo Massimo Predefinita
Epoch epochCount Il numero di iterazioni nell’intero set di dati di addestramento intero 1 100 1
Dimensione batch batchSize Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello intero 8 8 (Command)

32 (Light)

8
Tasso di apprendimento learningRate La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch. Se utilizzi un set di dati di convalida, è consigliabile non specificare un valore per learningRate. virgola mobile 5.00E-6 0.1 1,00E-5
Soglia per l’arresto anticipato earlyStoppingThreshold Il miglioramento minimo delle perdite richiesto per prevenire l’interruzione prematura del processo di addestramento virgola mobile 0 0.1 0.01
Tolleranza per l’arresto anticipato earlyStoppingPatience La tolleranza alla stagnazione nella metrica delle perdite prima dell’interruzione del processo di addestramento intero 1 10 6
Percentuale di valutazione evalPercentage

La percentuale del set di dati allocato per la valutazione del modello, se non fornisci un set di dati di convalida separato

virgola mobile 5 50 20

I modelli Meta Llama 3.1 8B e 70B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock. Per ulteriori informazioni, consulta Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso.

Per informazioni sulla regolazione fine dei modelli Meta Llama, consulta la Meta documentazione su get-started/ #fine -tuning. https://ai.meta.com/llama/

Nota

La quota epochCount è modificabile.

Iperparametro (console) Iperparametro (API) Definizione Minimo Massimo Predefinita
Epoch epochCount Il numero di iterazioni nell’intero set di dati di addestramento 1 10 5
Dimensione batch batchSize Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello 1 1 1
Tasso di apprendimento learningRate La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch 5.00E-6 0.1 1,00E-4

I modelli Meta Llama 3.2 1B, 3B, 11B e 90B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock. Per ulteriori informazioni, consulta Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso.

Per informazioni sulla regolazione fine dei modelli Meta Llama, consulta la Meta documentazione su get-started/ #fine -tuning. https://ai.meta.com/llama/

Iperparametro (console) Iperparametro (API) Definizione Minimo Massimo Predefinita
Epoch epochCount Il numero di iterazioni nell’intero set di dati di addestramento 1 10 5
Dimensione batch batchSize Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello 1 1 1
Tasso di apprendimento learningRate La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch 5.00E-6 0.1 1,00E-4