Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Iperparametri di personalizzazione del modello Meta Llama 3.2
I modelli Meta Llama 3.2 1B, 3B, 11B e 90B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta Prezzi di Amazon Bedrock
Per informazioni sulla regolazione fine dei modelli Meta Llama, consulta la Meta documentazione su https://ai.meta.com/llama/get-started/ #fine -tuning
| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita |
|---|---|---|---|---|---|
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | 1 | 10 | 5 |
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello | 1 | 1 | 1 |
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 5.00E-6 | 0.1 | 1,00E-4 |