Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Amazon Nova – Grundlagen zu den Hyperparametern zur Modellanpassung
Die Amazon Nova Lite-Amazon Nova Micro- und Amazon Nova Pro-Modelle unterstützen die folgenden drei Hyperparameter zur Anpassung des Modells. Weitere Informationen finden Sie unter Anpassen des Modells für eine bessere Leistung im jeweiligen Anwendungsfall.
Informationen zur Optimierung der Amazon-Nova-Modelle finden Sie unter Optimierung von Amazon Nova-Modellen.
Durch die Anzahl der angegebenen Epochen erhöhen sich die Kosten für die Modellanpassung, da mehr Token verarbeitet werden. Jede Epoche verarbeitet den gesamten Trainingsdatensatz einmal. Weitere Informationen zur Preisgestaltung finden Sie unter Amazon Bedrock – Preise
| Hyperparameter (Konsole) | Hyperparameter (API) | Definition | Typ | Minimum | Maximum | Standard |
|---|---|---|---|---|---|---|
| Epochen | epochCount | Die Anzahl der Iterationen durch den gesamten Trainingsdatensatz | Ganzzahl | 1 | 5 | 2 |
| Lernrate | learningRate | Die Geschwindigkeit, mit der Modellparameter nach jedem Batch aktualisiert werden | float | 1.00E-6 | 1.00E-4 | 1.00E-5 |
| Aufwärmschritte für die Lernrate | learningRateWarmupSchritte | Die Anzahl der Iterationen, mit denen die Lernrate schrittweise auf die angegebene Rate erhöht wird | Ganzzahl | 0 | 100 | 10 |
Die Standardepochenanzahl lautet 2 und ist für die meisten Fällen gut geeignet. Im Allgemeinen benötigen größere Datensätze weniger Epochen zum Konvergieren und kleinere Datensätze mehr Epochen. Eine schnellere Konvergenz könnte auch durch eine Erhöhung der Lernrate erreicht werden, was jedoch weniger wünschenswert ist, da dies zu einer Instabilität im Konvergenztraining führen könnte. Wir empfehlen, mit den Standard-Hyperparametern zu beginnen, die auf unserer Bewertung verschiedener Aufgaben mit unterschiedlicher Komplexität und Datenmenge basieren.
Die Lernrate wird beim Aufwärmen allmählich auf den eingestellten Wert steigen. Daher sollten Sie eine große Aufwärmzahl für eine kleine Trainingsstichprobe vermeiden, da Ihre Lernrate während des Trainingsprozesses möglicherweise nie den festgelegten Wert erreicht. Wir empfehlen, für die Festlegung der Aufwärmstufen die Datensatzgröße für Amazon Nova Micro durch 640, für Amazon Nova Lite durch 160 und für Amazon Nova Pro durch 320 zu dividieren.