Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Apache Spark mit Amazon SageMaker AI
Amazon SageMaker AI Spark ist eine Open-Source-Spark-Bibliothek, mit der Sie Spark-Pipelines für maschinelles Lernen (ML) mit SageMaker KI erstellen können. Dies vereinfacht die Integration von Spark-ML-Phasen in SageMaker KI-Phasen wie Modelltraining und Hosting. Informationen zu SageMaker AI Spark finden Sie im SageMaker AI GitHub Spark-Repository
Die SageMaker AI Spark-Bibliothek ist in Python und Scala verfügbar. Sie können SageMaker AI Spark verwenden, um Modelle in SageMaker KI mithilfe von org.apache.spark.sql.DataFrame Datenrahmen in Ihren Spark-Clustern zu trainieren. Nach dem Modelltraining können Sie das Modell auch mithilfe von SageMaker KI-Hosting-Diensten hosten.
Die SageMaker AI Spark-Bibliothek bietet unter anderem die folgenden Klassen: com.amazonaws.services.sagemaker.sparksdk
-
SageMakerEstimator– Erweitert dieorg.apache.spark.ml.EstimatorSchnittstelle. Sie können diesen Schätzer für das Modelltraining in SageMaker KI verwenden. -
KMeansSageMakerEstimator,PCASageMakerEstimator, undXGBoostSageMakerEstimator– Erweitert dieSageMakerEstimatorKlasse. -
SageMakerModel– Erweitertorg.apache.spark.ml.ModelKlasse. Sie können ihn verwenden, um ModelleSageMakerModelzu hosten und Rückschlüsse in SageMaker KI zu ziehen.
Sie können den Quellcode für die Bibliotheken Python Spark (PySpark) und Scala aus dem SageMaker AI GitHub Spark-Repository
Die Installation und Beispiele der SageMaker AI Spark-Bibliothek finden Sie unter SageMaker Beispiele für AI Spark für Scala oderRessourcen für die Verwendung von SageMaker AI Spark for Python (PySpark) — Beispiele.
Wenn Sie Amazon EMR on AWS zur Verwaltung von Spark-Clustern verwenden, finden Sie weitere Informationen unter Apache Spark
Themen
Integrieren Sie Ihre Apache Spark-Anwendung mit KI SageMaker
Im Folgenden finden Sie eine allgemeine Zusammenfassung der Schritte zur Integration Ihrer Apache Spark-Anwendung mit SageMaker KI.
-
Setzen Sie die Datenvorverarbeitung mithilfe der Apache Spark-Bibliothek fort, mit der Sie vertraut sind. Ihr Datensatz bleibt ein
DataFramein Ihrem Spark-Cluster. Laden Sie Ihre Daten in eineDataFrame. Verarbeiten Sie es so vor, dass Sie einefeaturesSpalte mitorg.apache.spark.ml.linalg.VectorofDoublesund eine optionalelabelSpalte mit WertenDoublevom Typ haben. -
Verwenden Sie den Schätzer in der SageMaker AI Spark-Bibliothek, um Ihr Modell zu trainieren. Wenn Sie beispielsweise den von SageMaker KI bereitgestellten K-Means-Algorithmus für das Modelltraining wählen, rufen Sie die
KMeansSageMakerEstimator.fitMethode auf.Geben Sie Ihren
DataFrameals Eingabe an. Von der Schätzfunktion wird einSageMakerModel-Objekt zurückgegeben.Anmerkung
SageMakerModelist eine Erweiterung vonorg.apache.spark.ml.Model.Von der
fit-Methode werden folgende Schritte ausgeführt:-
Konvertiert die Eingabe in
DataFramedas Protobuf-Format. Dazu werden dielabelSpaltenfeaturesund aus der Eingabe ausgewählt.DataFrameAnschließend werden die Protobuf-Daten in einen Amazon S3 S3-Bucket hochgeladen. Das Protobuf-Format ist effizient für das Modelltraining in KI. SageMaker -
Startet das Modelltraining in SageMaker KI durch Senden einer SageMaker
CreateTrainingJobAI-Anfrage. Nach Abschluss des Modelltrainings speichert SageMaker KI die Modellartefakte in einem S3-Bucket.SageMaker KI übernimmt die IAM-Rolle, die Sie für das Modelltraining angegeben haben, um Aufgaben in Ihrem Namen auszuführen. Beispielsweise wird die Rolle zum Lesen von Trainingsdaten aus einem S3-Bucket und zum Schreiben von Modellartefakten in einen Bucket verwendet.
-
Ein
SageMakerModel-Objekt wird erstellt und zurückgegeben. Der Konstruktor führt die folgenden Aufgaben aus, die sich auf die Bereitstellung Ihres Modells in KI beziehen. SageMaker-
Sendet eine
CreateModelAnfrage an SageMaker AI. -
Sendet eine
CreateEndpointConfigAnfrage an SageMaker KI. -
Sendet eine
CreateEndpointAnfrage an SageMaker KI, die dann die angegebenen Ressourcen startet und das Modell darauf hostet.
-
-
-
Mit dem können Sie Rückschlüsse aus Ihrem in SageMaker KI gehosteten Modell ziehen.
SageMakerModel.transformStellen Sie einen
DataFramemit Merkmalen als Eingabe bereit. Dietransform-Methode transformiert dies in einenDataFrame, der Inferenzen enthält. Intern sendet dietransformMethode eine Anfrage an dieInvokeEndpointSageMaker API, um Rückschlüsse zu erhalten. Dietransform-Methode hängt die Inferenzen an den Eingabe-DataFramean.