Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Amazon NovaHyperparameter zur Modellanpassung verstehen
Die Amazon Nova Pro Modelle Amazon Nova LiteAmazon Nova Micro, und unterstützen die folgenden drei Hyperparameter für die Modellanpassung. Weitere Informationen finden Sie unter Passen Sie Ihr Modell an, um seine Leistung für Ihren Anwendungsfall zu verbessern.
Informationen zur Feinabstimmung von Amazon Nova-Modellen finden Sie unter Feinabstimmung von Amazon Nova Modellen.
Die Anzahl der von Ihnen angegebenen Epochen erhöht Ihre Kosten für die Modellanpassung, da mehr Token verarbeitet werden. Jede Epoche verarbeitet den gesamten Trainingsdatensatz einmal. Preisinformationen finden Sie unter Amazon Bedrock — Preise
Hyperparameter (Konsole) | Hyperparameter (API) | Definition | Typ | Minimum | Maximum | Standard |
---|---|---|---|---|---|---|
Epochen | epochCount | Die Anzahl der Iterationen durch den gesamten Trainingsdatensatz | Ganzzahl | 1 | 5 | 2 |
Lernrate | learningRate | Die Geschwindigkeit, mit der Modellparameter nach jedem Batch aktualisiert werden | float | 1.00E-6 | 1.00E-4 | 1.00E-5 |
Aufwärmschritte für die Lernrate | learningRateWarmupSchritte | Die Anzahl der Iterationen, mit denen die Lernrate schrittweise auf die angegebene Rate erhöht wird | Ganzzahl | 0 | 100 | 10 |
Die Standardepochennummer ist 2, was in den meisten Fällen funktioniert. Im Allgemeinen benötigen größere Datensätze weniger Epochen, um zu konvergieren, während kleinere Datensätze mehr Epochen erfordern, um zu konvergieren. Eine schnellere Konvergenz könnte auch durch eine Erhöhung der Lernrate erreicht werden, was jedoch weniger wünschenswert ist, da dies zu einer Instabilität der Ausbildung bei Konvergenz führen könnte. Wir empfehlen, mit den Standard-Hyperparametern zu beginnen, die auf unserer Bewertung von Aufgaben unterschiedlicher Komplexität und Datengröße basieren.
Die Lernrate wird beim Aufwärmen allmählich auf den eingestellten Wert steigen. Daher empfehlen wir, einen hohen Aufwärmwert zu vermeiden, wenn die Trainingsstichprobe klein ist, da die Lernrate während des Trainingsprozesses möglicherweise nie den eingestellten Wert erreicht. Wir empfehlen, die Aufwärmstufen festzulegen, indem Sie die Datensatzgröße durch 640 fürAmazon Nova Micro, 160 für Amazon Nova Lite und 320 für Amazon Nova Pro dividieren.