Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Modellqualität
Aufträge zur Überwachung der Modellqualität überwachen die Leistung eines Modells, indem sie die Vorhersagen des Modells mit den tatsächlichen Ground-Truth-Bezeichnungen vergleichen, die das Modell vorherzusagen versucht. Zu diesem Zweck führt die Überwachung der Modellqualität Daten, die aus Echtzeit- oder Batch-Inferenzen erfasst wurden, mit tatsächlichen Etiketten zusammen, die Sie in einem Amazon-S3-Bucket speichern, und vergleicht dann die Vorhersagen mit den tatsächlichen Labels.
Um die Modellqualität zu messen, verwendet Model Monitor Metriken, die vom ML-Problemtyp abhängen. Wenn Ihr Modell beispielsweise für ein Regressionsproblem bestimmt ist, ist eine der ausgewerteten Metriken der mittlere quadratische Fehler (mse). Informationen zu allen Metriken, die für die verschiedenen ML-Problemtypen verwendet wurden, finden Sie unter Modellqualitätsmetriken und CloudWatch Amazon-Überwachung.
Die Überwachung der Modellqualität folgt den gleichen Schritten wie die Überwachung der Datenqualität, fügt jedoch den zusätzlichen Schritt hinzu, die tatsächlichen Labels aus Amazon S3 mit den Vorhersagen zusammenzuführen, die vom Echtzeit-Inferenzendpunkt oder vom Batch-Transformationsjob erfasst wurden. Gehen Sie folgendermaßen vor, um die Modellqualität zu überwachen:
-
Aktivieren der Datenerfassung. Dadurch werden Inferenzeingaben und -ausgaben von einem Echtzeit-Inferenzendpunkt oder einem Batch-Transformationsauftrag erfasst und die Daten in Amazon S3 gespeichert. Weitere Informationen finden Sie unter Erfassen von Daten.
-
Erstellen einer Baseline In diesem Schritt führen Sie einen Baseline-Auftrag aus, der Vorhersagen aus dem Modell mit Ground-Truth-Beschriftungen in einem Baseline-Datensatz vergleicht. Der Baseline-Auftrag erstellt automatisch statistische Basisregeln und Einschränkungen, die Schwellenwerte definieren, anhand derer die Modellleistung bewertet wird. Weitere Informationen finden Sie unter Erstellen einer Baseline für die Modellqualität.
-
Definieren und planen Sie Aufgaben zur Überwachung der Modellqualität. Spezifische Informationen und Codebeispiele für Aufträge zur Überwachung der Modellqualität finden Sie unter Planen von Aufträgen zur Überwachung der Modellqualität. Allgemeine Informationen zu Überwachungsaufträgen finden Sie unter Zeitplan für Überwachungsaufgaben.
-
Ingest Ground-Truth-Beschriftungen, die Modellüberwachung mit erfassten Vorhersagedaten aus einem Echtzeit-Inferenzendpunkt oder einem Batch-Transformationsauftrag zusammenführen. Weitere Informationen finden Sie unter Erfassen von Ground-Truth-Labels und Zusammenführen mit Vorhersagen.
-
Integrieren Sie die Überwachung der Modellqualität mit Amazon CloudWatch. Weitere Informationen finden Sie unter Überwachung von Modellqualitätsmetriken mit CloudWatch.
-
Interpretieren Sie die Ergebnisse eines Überwachungsauftrags. Weitere Informationen finden Sie unter Interpretieren von Ergebnissen.
-
Verwenden Sie SageMaker Studio, um die Überwachung der Modellqualität zu aktivieren und die Ergebnisse zu visualisieren. Weitere Informationen finden Sie unter Visualisieren Sie Ergebnisse für Echtzeit-Endgeräte in Amazon Studio SageMaker .