

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Autopilot-Modelle für Echtzeit-Inferenzen bereitstellen
<a name="text-classification-deploy-models"></a>

Nachdem Sie Ihre Amazon SageMaker Autopilot-Modelle trainiert haben, können Sie einen Endpunkt einrichten und interaktiv Prognosen abrufen. Im folgenden Abschnitt werden die Schritte zur Bereitstellung Ihres Modells auf einem SageMaker KI-Echtzeit-Inferenzendpunkt beschrieben, um Vorhersagen aus Ihrem Modell zu erhalten.

## Echtzeit-Inferenz
<a name="autopilot-deploy-models-text-image-classification-realtime"></a>

Inferenz in Echtzeit ist ideal für Inferenz-Workloads, bei denen interaktive Echtzeitanforderungen mit geringer Latenz erfüllt werden müssen. In diesem Abschnitt wird gezeigt, wie Sie Echtzeit-Inferenzen verwenden können, um interaktiv Vorhersagen aus Ihrem Modell zu erhalten.

Sie können das Modell SageMaker APIs , das die beste Validierungsmetrik lieferte, in einem Autopilot-Experiment wie folgt manuell bereitstellen.

Alternativ können Sie bei der Erstellung Ihres Autopilot-Experiments die automatische Bereitstellungsoption wählen. Informationen zur Einrichtung der automatischen Bereitstellung von Modellen finden Sie in `[ModelDeployConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#sagemaker-CreateAutoMLJobV2-request-ModelDeployConfig)` in den Anforderungsparametern von `[CreateAutoMLJobV2](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateAutoMLJobV2.html#API_CreateAutoMLJobV2_RequestParameters)`. Dadurch wird automatisch ein Endpunkt erstellt.

**Anmerkung**  
Um unnötige Kosten zu vermeiden, können Sie nicht benötigte Endpunkte und Ressourcen löschen, die bei der Modellbereitstellung erstellt wurden. Informationen zur Preisgestaltung von Instances nach Regionen finden Sie unter [ SageMaker Amazon-Preise](https://aws.amazon.com/sagemaker/pricing/).

1. **Besorgen Sie sich die Container-Kandidatendefinitionen**

   Rufen Sie die Kandidaten-Containerdefinitionen von ab [InferenceContainers](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_AutoMLCandidate.html#sagemaker-Type-AutoMLCandidate-InferenceContainers). Eine Container-Definition für Inferenz bezieht sich auf die containerisierte Umgebung, die für die Bereitstellung und Ausführung Ihres trainierten SageMaker KI-Modells konzipiert ist, um Vorhersagen zu treffen. 

   Das folgende AWS CLI Befehlsbeispiel verwendet die [DescribeAutoMLJobV2-API](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeAutoMLJobV2.html), um Kandidatendefinitionen für den besten Modellkandidaten abzurufen.

   ```
   aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
   ```

1. **Kandidaten auflisten**

   Das folgende AWS CLI Befehlsbeispiel verwendet die [ListCandidatesForAutoMLJob](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_ListCandidatesForAutoMLJob.html)API, um alle Modellkandidaten aufzulisten.

   ```
   aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
   ```

1. **Erstellen Sie ein SageMaker KI-Modell**

   Verwenden Sie die Containerdefinitionen aus den vorherigen Schritten und einen Kandidaten Ihrer Wahl, um mithilfe der [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API ein SageMaker KI-Modell zu erstellen. Sehen Sie sich den folgenden AWS CLI Befehl als Beispiel an.

   ```
   aws sagemaker create-model --model-name '<your-candidate-name>' \
                       --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \
                       --execution-role-arn '<execution-role-arn>' --region '<region>
   ```

1. **Endpunktkonfiguration erstellen**

   Das folgende AWS CLI Befehlsbeispiel verwendet die [CreateEndpointConfig](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpointConfig.html)API, um eine Endpunktkonfiguration zu erstellen.

   ```
   aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \
                       --production-variants '<list-of-production-variants>' \
                       --region '<region>'
   ```

1. **Endpunkt erstellen** 

   Das folgende AWS CLI Beispiel verwendet die [CreateEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateEndpoint.html)API, um den Endpunkt zu erstellen.

   ```
   aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \
                       --endpoint-config-name '<endpoint-config-name-you-just-created>' \
                       --region '<region>'
   ```

   Überprüfen Sie den Fortschritt Ihrer Endpunktbereitstellung mithilfe der [DescribeEndpoint](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_DescribeEndpoint.html)API. Sehen Sie sich den folgenden AWS CLI Befehl als Beispiel an.

   ```
   aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>
   ```

   Nach den `EndpointStatus` Änderungen an `InService` ist der Endpunkt für Echtzeit-Inferences einsatzbereit.

1. **Rufen Sie den Endpunkt auf** 

   Die folgende Befehlsstruktur ruft den Endpunkt für Echtzeit-Inferenzen auf.

   ```
   aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ 
                     --region '<region>' --body '<your-data>' [--content-type] '<content-type>' <outfile>
   ```