

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Optimieren eines Factorization Machines-Modells
<a name="fm-tuning"></a>

Die *automatische Modelloptimierung*, auch bekannt als Hyperparameteroptimierung, sucht die beste Version eines Modells, indem viele Aufträge ausgeführt werden, die einen Bereich von Hyperparametern in Ihrem Datensatz testen. Sie wählen die optimierbaren Hyperparameter, eine Reihe von Werten für jeden Parameter und eine objektive Metrik aus. Sie wählen die objektive Metrik aus den Metriken aus, die der Algorithmus berechnet. Die automatische Modelloptimierung durchsucht die ausgewählten Hyperparameter nach der Kombination von Werten, die das Modell ergeben, das die objektive Metrik optimiert.

Mehr Informationen über die Modelloptimierung finden Sie unter [Automatische Modelloptimierung mit KI SageMaker](automatic-model-tuning.md).

## Vom Factorization Machines-Algorithmus berechnete Metriken
<a name="fm-metrics"></a>

Der Factorization Machines-Algorithmus verfügt sowohl über binäre Klassifikations- als auch Regressionsprädiktoren. Der Prognosetyp bestimmt, welche Metrik Sie für die automatische Modelloptimierung verwenden können. Der Algorithmus meldet eine `test:rmse` regressor-Metrik, die während des Trainings berechnet wird. Wählen Sie diese Metrik beim Optimieren des Modells für Regressionsaufgaben als objektive Metrik aus.


| Metrikname | Description | Optimierungsrichtung | 
| --- | --- | --- | 
| test:rmse | Wurzel des mittleren quadratischen Prognosefehlers (Root Mean Square Error) | Minimieren | 

Der Factorization Machines-Algorithmus liefert drei binäre Klassifikationsmetriken, die während des Trainings berechnet werden. Beim Optimieren des Modells für binäre Klassifikationsaufgaben wählen Sie eine der folgenden Optionen als objektive Metrik aus.


| Metrikname | Description | Optimierungsrichtung | 
| --- | --- | --- | 
| test:binary\$1classification\$1accuracy | Accuracy | Maximieren | 
| test:binary\$1classification\$1cross\$1entropy | Kreuz-Entropie | Minimieren | 
| test:binary\$1f\$1beta | Beta | Maximieren | 

## Optimierbare Factorization Machines-Hyperparameter
<a name="fm-tunable-hyperparameters"></a>

Sie können die folgenden Hyperparameter für den Algorithmus Factorization Machines einstellen. Die Initialisierungsparameter, die die Begriffe "bias", "linear" und "factorization" enthalten, hängen von ihrer Initialisierungsmethode ab. Es gibt drei Initialisierungsmethoden: `uniform`, `normal` und `constant`. Diese Initialisierungsmethoden sind nicht optimierbar. Die Parameter, die optimierbar sind, hängen von der Wahl der Initialisierungsmethode ab. Beispiel: Wenn die Initialisierungsmethode `uniform` lautet, dann sind nur die `scale`-Parameter optimierbar. Insbesondere bei `bias_init_method==uniform` sind `bias_init_scale`, `linear_init_scale` und `factors_init_scale` optimierbar. Wenn die Initialisierungsmethode entsprechend `normal` lautet, dann sind nur die `sigma`-Parameter optimierbar. Wenn die Initialisierungsmethode `constant` lautet, dann sind nur die `value`-Parameter optimierbar. Diese Abhängigkeiten werden in der folgenden Tabelle aufgeführt. 


| Name des Parameters | Parametertyp | Empfohlene Bereiche | -Abhängigkeit | 
| --- | --- | --- | --- | 
| bias\$1init\$1scale | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | bias\$1init\$1method==uniform | 
| bias\$1init\$1sigma | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | bias\$1init\$1method==normal | 
| bias\$1init\$1value | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | bias\$1init\$1method==constant | 
| bias\$1lr | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | Keine | 
| bias\$1wd | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | Keine | 
| epoch | IntegerParameterRange | MinValue: 1, MaxValue: 100 | Keine | 
| factors\$1init\$1scale | ContinuousParameterRange | MinValue: 1e-8, MaxValue: 512 | bias\$1init\$1method==uniform | 
| factors\$1init\$1sigma | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | bias\$1init\$1method==normal | 
| factors\$1init\$1value | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | bias\$1init\$1method==constant | 
| factors\$1lr | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | Keine | 
| factors\$1wd | ContinuousParameterRange | MinValue: 1e-8,: 512] MaxValue | Keine | 
| linear\$1init\$1scale | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | bias\$1init\$1method==uniform | 
| linear\$1init\$1sigma | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | bias\$1init\$1method==normal | 
| linear\$1init\$1value | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | bias\$1init\$1method==constant | 
| linear\$1lr | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | Keine | 
| linear\$1wd | ContinuousParameterRange | MinValue: 1e-8,: 512 MaxValue | Keine | 
| mini\$1batch\$1size | IntegerParameterRange | MinValue: 100, MaxValue: 1000 | Keine | 