MetaLlama 3.1Hyperparameter zur Modellanpassung - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

MetaLlama 3.1Hyperparameter zur Modellanpassung

Die Modelle Meta Llama 3.1 8B und 70B unterstützen die folgenden Hyperparameter für die Modellanpassung. Die Anzahl der von Ihnen angegebenen Epochen erhöht Ihre Kosten für die Modellanpassung, da mehr Token verarbeitet werden. Jede Epoche verarbeitet den gesamten Trainingsdatensatz einmal. Preisinformationen finden Sie unter Amazon Bedrock — Preise. Weitere Informationen finden Sie unter Passen Sie Ihr Modell an, um seine Leistung für Ihren Anwendungsfall zu verbessern.

Informationen zur Feinabstimmung von Meta Lama-Modellen finden Sie in der Meta Dokumentation unter https://ai.meta.com/llama/get-started/ #fine -tuning.

Anmerkung

Das Kontingent ist einstellbar. epochCount

Hyperparameter (Konsole) Hyperparameter (API) Definition Minimum Maximum Standard
Epochen epochCount Die Anzahl der Iterationen durch den gesamten Trainingsdatensatz 1 10 5
Batch-Größe batchSize Die Anzahl der Stichproben, die vor der Aktualisierung der Modellparameter verarbeitet wurden 1 1 1
Lernrate learningRate Die Geschwindigkeit, mit der Modellparameter nach jedem Batch aktualisiert werden 5.00E-6 0.1 1,00E-4