

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Vorzeitiges Beenden von Trainingsaufträgen
<a name="automatic-model-tuning-early-stopping"></a>

Beenden Sie die Trainingsaufträge, die ein Hyperparameter-Optimierungsauftrag startet, vorzeitig, wenn diese keine signifikanten Verbesserungen erzielen, was Sie an der objektiven Metrik ablesen können. Durch das vorzeitige Beenden von Trainingsaufträgen wird die Datenverarbeitungszeit reduziert und eine Überanpassung Ihres Modells vermieden. Gehen Sie wie folgt vor, um einen Hyperparameter-Optimierungsauftrag so zu konfigurieren, dass Trainingsaufträge vorzeitig beendet werden:
+ Wenn Sie das AWS SDK for Python (Boto3) verwenden, legen Sie das `TrainingJobEarlyStoppingType` Feld des [https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HyperParameterTuningJobConfig.html](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_HyperParameterTuningJobConfig.html)Objekts, das Sie zur Konfiguration des Tuning-Jobs verwenden, auf fest. `AUTO`
+ Wenn Sie das [Amazon SageMaker Python SDK](https://sagemaker.readthedocs.io/en/stable) verwenden, setzen Sie den `early_stopping_type` Parameter des [HyperParameterTuner](https://sagemaker.readthedocs.io/en/stable/tuner.html)Objekts auf`Auto`.
+ Wählen Sie in der Amazon SageMaker AI-Konsole im Workflow **Hyperparameter-Tuning-Job erstellen** unter **Vorzeitiges Stoppen** die Option **Automatisch** aus.

****Ein Beispiel-Notizbuch, das die Verwendung von Early-Stopp demonstriert, finden Sie unter [https://github.com/awslabs/amazon-sagemaker-examples/blob/master/hyperparameter\$1tuning/image\$1classification\$1early\$1stopping/hpo\$1image\$1classification\$1early\$1stopping.ipynb](https://github.com/awslabs/amazon-sagemaker-examples/blob/master/hyperparameter_tuning/image_classification_early_stopping/hpo_image_classification_early_stopping.ipynb) oder öffnen Sie das Notizbuch im Abschnitt Hyperparameter Tuning der `hpo_image_classification_early_stopping.ipynb` KI-Beispiele in einer Notebook-Instance. SageMaker ****

## Funktionsweise des vorzeitigen Beendens
<a name="automatic-tuning-early-stop-how"></a>

Wenn Sie das vorzeitige Stoppen für einen Hyperparameter-Tuning-Job aktivieren, bewertet AI jeden Trainingsjob, den der Hyperparameter-Optimierungsjob startet, wie folgt: SageMaker 
+ Nach jeder Trainingsepoche wird der Wert der objektiven Metrik ermittelt.
+ Der aktuelle Durchschnitt der objektiven Metrik wird für alle vorherigen Trainingsaufträge bis zur selben Epoche berechnet, anschließend wird der Mittelwert aller aktuellen Durchschnittswerte berechnet.
+ Wenn der Wert der Zielmetrik für den aktuellen Trainingsjob schlechter ist (höher bei Minimierung oder niedriger bei Maximierung der Zielmetrik) als der Medianwert der laufenden Durchschnittswerte der Zielmetrik für frühere Trainingsjobs bis zu derselben Epoche, SageMaker stoppt KI den aktuellen Trainingsjob.

## Algorithmen, die das vorzeitige Beenden unterstützen
<a name="automatic-tuning-early-stopping-algos"></a>

Um das vorzeitige Beenden zu unterstützen, muss ein Algorithmus objektive Metriken für jede Epoche ausgeben. Die folgenden integrierten SageMaker KI-Algorithmen unterstützen das frühzeitige Abbrechen:
+ [LightGBM](lightgbm.md)
+ [CatBoost](catboost.md)
+ [AutoGluon-Tabellarisch](autogluon-tabular.md)
+ [TabTransformer](tabtransformer.md)
+ [Algorithmus für lineares Lernen](linear-learner.md)– Wird nur unterstützt, wenn Sie `objective_loss` als Zielmetrik verwenden.
+ [XGBoost Algorithmus mit Amazon SageMaker AI](xgboost.md)
+ [Bildklassifizierung - MXNet](image-classification.md)
+ [Objekterkennung - MXNet](object-detection.md)
+ [Sequence-to-Sequence Algorithmus](seq-2-seq.md)
+ [IP Insights](ip-insights.md)

**Anmerkung**  
Diese Liste der integrierten Algorithmen, die das vorzeitige Beenden unterstützen, ist auf dem Stand vom 13. Dezember 2018. Andere integrierte Algorithmen unterstützen möglicherweise in Zukunft das vorzeitige Beenden. Wenn ein Algorithmus eine Metrik ausgibt, die als objektive Metrik für einen Hyperparameter-Optimierungsauftrag verwendet werden kann (vorzugsweise eine Validierungsmetrik), unterstützt er das vorzeitige Beenden.

Um das vorzeitige Beenden mit Ihrem eigenen Algorithmus zu verwenden, müssen Sie Ihre Algorithmen so entwickeln, dass sie den Wert der objektiven Metrik nach jeder Epoche ausgeben. Die folgende Liste zeigt, wie Sie dies in verschiedenen Frameworks erreichen können:

TensorFlow  
Verwenden Sie die `tf.keras.callbacks.ProgbarLogger`-Klasse. Informationen finden Sie unter [tf.keras.callbacks. ProgbarLogger API.](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/ProgbarLogger)

MXNet  
Verwenden Sie die `mxnet.callback.LogValidationMetricsCallback`. Weitere Informationen finden Sie im [ APIsmxnet.callback](https://mxnet.apache.org/versions/master/api/python/docs/api/legacy/callback/index.html).

Chainer  
Erweitern Sie den Chainer durch Verwendung der `extensions.Evaluator`-Klasse. [Informationen finden Sie in der Chainer.Training.Extensions.Evaluator-API.](https://docs.chainer.org/en/v1.24.0/reference/extensions.html#evaluator)

PyTorch und Spark  
Es gibt keine High-Level-Unterstützung. Sie müssen Ihren Trainingscode explizit so entwickeln, dass er objektive Metriken berechnet und sie nach jeder Epoche in Protokolle schreibt.