Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Hyperparameter zur Anpassung des Meta Llama 3.2-Modells
Die Modelle Meta Llama 3.2 1B, 3B, 11B und 90B unterstützen die folgenden Hyperparameter für die Modellanpassung. Durch die Anzahl der angegebenen Epochen erhöhen sich die Kosten für die Modellanpassung, da mehr Token verarbeitet werden. Jede Epoche verarbeitet den gesamten Trainingsdatensatz einmal. Weitere Informationen zur Preisgestaltung finden Sie unter Amazon Bedrock – Preise
Informationen zur Feinabstimmung von Meta Lama-Modellen finden Sie in der Meta Dokumentation unter https://ai.meta.com/llama/get-started/
| Hyperparameter (Konsole) | Hyperparameter (API) | Definition | Minimum | Maximum | Standard |
|---|---|---|---|---|---|
| Epochen | epochCount | Die Anzahl der Iterationen durch den gesamten Trainingsdatensatz | 1 | 10 | 5 |
| Batch-Größe | batchSize | Die Anzahl der Stichproben, die vor der Aktualisierung der Modellparameter verarbeitet wurden | 1 | 1 | 1 |
| Lernrate | learningRate | Die Geschwindigkeit, mit der Modellparameter nach jedem Batch aktualisiert werden | 5.00E-6 | 0.1 | 1,00E-4 |