

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Ein Modell erstellen
<a name="serverless-endpoints-create-model"></a>

Um Ihr Modell zu erstellen, müssen Sie den Speicherort Ihrer Modellartefakte und Ihres Container-Images angeben. Sie können auch eine Modellversion aus [SageMaker Model Registry](model-registry.md) verwenden. Die Beispiele in den folgenden Abschnitten zeigen Ihnen, wie Sie mithilfe der [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API, der Model Registry und der [Amazon SageMaker AI-Konsole](https://console.aws.amazon.com/sagemaker/home) ein Modell erstellen.

## Zum Erstellen eines Modells (mit Hilfe von Model Registry)
<a name="serverless-endpoints-create-model-registry"></a>

[Model Registry](model-registry.md) ist eine Funktion von SageMaker KI, mit der Sie Versionen Ihres Modells für die Verwendung in ML-Pipelines katalogisieren und verwalten können. Um Model Registry mit Serverless Inference verwenden zu können, müssen Sie zunächst eine Modellversion in einer Model Registry Modellgruppe registrieren. Wie Sie ein Modell in Model Registry registrieren, erfahren Sie in den Anweisungen unter [Erstellen einer Modellgruppe](model-registry-model-group.md) und [Registrieren Sie eine Modellversion](model-registry-version.md).

Für das folgende Beispiel benötigen Sie den ARN einer registrierten Modellversion und verwendet das [AWS SDK for Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html), um die [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API aufzurufen. Für Serverless Inference wird Model Registry derzeit nur vom AWS SDK for Python (Boto3) unterstützt. Geben Sie für das Beispiel die folgenden Werte an:
+ Geben Sie für `model_name` einen Name für das Modell ein.
+ Für `sagemaker_role` können Sie die von SageMaker KI erstellte Standardrolle oder eine benutzerdefinierte SageMaker KI-IAM-Rolle aus Schritt 4 des Abschnitts verwenden. [Erfüllen der Voraussetzungen](serverless-endpoints-prerequisites.md)
+ Geben Sie für `ModelPackageName` den ARN für Ihre Modellversion an, die in der Model Registry für eine Modellgruppe registriert sein muss.

```
#Setup
import boto3
import sagemaker
region = boto3.Session().region_name
client = boto3.client("sagemaker", region_name=region)

#Role to give SageMaker AI permission to access AWS services.
sagemaker_role = sagemaker.get_execution_role()

#Specify a name for the model
model_name = "<name-for-model>"

#Specify a Model Registry model version
container_list = [
    {
        "ModelPackageName": <model-version-arn>
     }
 ]

#Create the model
response = client.create_model(
    ModelName = model_name,
    ExecutionRoleArn = sagemaker_role,
    container_list
)
```

## So erstellen Sie ein Modell (mit Hilfe der API)
<a name="serverless-endpoints-create-model-api"></a>

Im folgenden Beispiel wird das [AWS SDK for Python (Boto3)](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html) verwendet, um die [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API aufzurufen. Geben Sie die folgenden Werte an:
+ Denn `sagemaker_role,` Sie können die von SageMaker KI erstellte Standardrolle oder eine benutzerdefinierte SageMaker KI-IAM-Rolle aus Schritt 4 des Abschnitts verwenden. [Erfüllen der Voraussetzungen](serverless-endpoints-prerequisites.md)
+ Geben Sie für `model_url` den Amazon-S3-URI für Ihr Modell an.
+ Rufen Sie für `container` über seinen Amazon ECR-Pfad den Container ab, den Sie verwenden möchten. In diesem Beispiel wird ein von SageMaker KI bereitgestellter XGBoost Container verwendet. Wenn Sie keinen SageMaker KI-Container ausgewählt oder Ihren eigenen mitgebracht haben, finden Sie weitere Informationen in Schritt 6 des [Erfüllen der Voraussetzungen](serverless-endpoints-prerequisites.md) Abschnitts.
+ Geben Sie für `model_name` einen Name für das Modell ein.

```
#Setup
import boto3
import sagemaker
region = boto3.Session().region_name
client = boto3.client("sagemaker", region_name=region)

#Role to give SageMaker AI permission to access AWS services.
sagemaker_role = sagemaker.get_execution_role()

#Get model from S3
model_url = "s3://amzn-s3-demo-bucket/models/model.tar.gz"

#Get container image (prebuilt example)
from sagemaker import image_uris
container = image_uris.retrieve("xgboost", region, "0.90-1")

#Create model
model_name = "<name-for-model>"

response = client.create_model(
    ModelName = model_name,
    ExecutionRoleArn = sagemaker_role,
    Containers = [{
        "Image": container,
        "Mode": "SingleModel",
        "ModelDataUrl": model_url,
    }]
)
```

## So erstellen Sie ein Modell (mithilfe der Konsole)
<a name="serverless-endpoints-create-model-console"></a>

1. Melden Sie sich bei der [Amazon SageMaker AI-Konsole](https://console.aws.amazon.com/sagemaker/home) an.

1. Wählen Sie auf der Registerkarte Navigation die Option **Inferenz** aus.

1. Wählen Sie als Nächstes **Modelle** aus.

1. Wählen Sie **Modell erstellen** aus.

1. Geben Sie unter **Modellname** einen Namen für das Modell ein, der für Ihr Konto eindeutig ist, und AWS-Region.

1. Wählen Sie für die **IAM-Rolle** entweder eine IAM-Rolle aus, die Sie bereits erstellt haben (siehe[Erfüllen der Voraussetzungen](serverless-endpoints-prerequisites.md)), oder lassen Sie SageMaker KI eine für Sie erstellen.

1. Wählen Sie in **Container-Definition 1** für **Container-Eingabeoptionen** die Option **Modellartefakte bereitstellen und Ort eingeben** aus.

1. Wählen Sie unter **Modellartefakte und Inferenz-Image-Optionen bereitstellen** die Option **Ein einzelnes Modell verwenden** aus.

1. Geben Sie unter **Standort des Inferenzcode-Abbildes** einen Amazon ECR-Pfad zu einem Container ein. Das Image muss entweder ein von SageMaker KI bereitgestelltes First-Party-Image sein (z. B. TensorFlow XGBoost) oder ein Image, das sich in einem Amazon ECR-Repository innerhalb desselben Kontos befindet, in dem Sie den Endpunkt erstellen. Wenn Sie keinen Container haben, gehen Sie zurück zu Schritt 6 im Abschnitt [Erfüllen der Voraussetzungen](serverless-endpoints-prerequisites.md). Dort finden Sie weitere Informationen.

1. Geben Sie als **Standort der Modellartefakte** den Amazon-S3-URI zu Ihrem ML-Modell ein. Beispiel, `s3://amzn-s3-demo-bucket/models/model.tar.gz`.

1. (Optional) Fügen Sie für **Tags** Schlüssel-Wert-Paare hinzu, um Metadaten für Ihr Modell zu erstellen.

1. Wählen Sie **Modell erstellen** aus.