

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verwalten von Inferenzendpunkten mit dem Befehl `endpoints`
<a name="machine-learning-api-endpoints"></a>

Mit dem Neptune-ML-Befehl `endpoints` können Sie einen Inferenzendpunkt erstellen, seinen Status überprüfen, ihn löschen oder vorhandene Inferenzendpunkte auflisten.

## Erstellen eines Inferenzendpunkts mit dem Neptune ML-Befehl `endpoints`
<a name="machine-learning-api-endpoints-create-job"></a>

Ein Neptune-ML-Befehl `endpoints` zum Erstellen eines Inferenzendpunkts aus einem Modell, das durch einen Trainingsauftrag erstellt wurde, sieht wie folgt aus:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Ein Neptune-ML-Befehl `endpoints` zum Aktualisieren eines Inferenzendpunkts aus einem Modell, das durch einen Trainingsauftrag erstellt wurde, sieht wie folgt aus:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Ein Neptune-ML-Befehl `endpoints` zum Erstellen eines Inferenzendpunkts aus einem Modell, das durch einen Modelltransformationsauftrag erstellt wurde, sieht wie folgt aus:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTransformJobId": "(the model-training job-id of a completed job)"
      }'
```

Ein Neptune-ML-Befehl `endpoints` zum Aktualisieren eines Inferenzendpunkts aus einem Modell, das durch einen Modelltransformationsauftrag erstellt wurde, sieht wie folgt aus:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTransformJobId": "(the model-training job-id of a completed job)"
      }'
```

**Parameter für die Erstellung von Inferenzendpunkten mit `endpoints`**
+ **`id`**   –   (*Optional*) Eine eindeutige ID für den neuen Inferenzendpunkt.

  *Typ:* Zeichenfolge. *Standard*: Ein automatisch generierter Name mit Zeitstempel.
+ **`mlModelTrainingJobId`**   –   Die Auftrags-ID des abgeschlossenen Modelltrainingsauftrags, der das Modell erstellt hat, auf das der Inferenzendpunkt verweisen wird.

  *Typ:* Zeichenfolge.

  *Hinweis*: Sie müssen entweder die `mlModelTrainingJobId` oder die `mlModelTransformJobId` angeben.
+ **`mlModelTransformJobId`**   –   Die Auftrags-ID eines abgeschlossenen Modelltransformationsauftrags.

  *Typ:* Zeichenfolge.

  *Hinweis*: Sie müssen entweder die `mlModelTrainingJobId` oder die `mlModelTransformJobId` angeben.
+ **`update`**   –   (*Optional*) Wenn vorhanden, gibt dieser Parameter an, dass es sich um eine Aktualisierungsanforderung handelt.

  *Typ*: boolesch. *Standardwert*: `false`

  *Hinweis*: Sie müssen entweder die `mlModelTrainingJobId` oder die `mlModelTransformJobId` angeben.
+ **`neptuneIamRoleArn`**— (*Optional*) Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker KI- und Amazon S3 S3-Ressourcen bietet.

  *Typ:* Zeichenfolge. *Hinweis*: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.
+ **`modelName`**   –   (*Optional*) Modelltyp für das Training. Standardmäßig basiert das ML-Modell automatisch auf dem `modelType`, der in der Datenverarbeitung verwendet wird. Sie können hier jedoch einen anderen Modelltyp angeben.

  *Typ:* Zeichenfolge. *Standardwert*: `rgcn` für heterogene Diagramme und `kge` für Wissensdiagramme. *Gültige Werte*: für heterogene Diagramme: `rgcn`. Für Wissensdiagramme: `kge`, `transe`, `distmult` oder `rotate`.
+ **`instanceType`**   –   (*Optional*) Der Typ der ML-Instance, die für die Online-Bereitstellung verwendet wird.

  *Typ:* Zeichenfolge. *Standardwert*: `ml.m5.xlarge`.

  *Hinweis*: Die Auswahl der ML-Instance für einen Inferenzendpunkt ist von Aufgabentyp, Diagrammgröße und Budget abhängig. Siehe [Auswahl einer Instance für einen Inferenzendpunkt](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-inference-endpoint-instance-size).
+ **`instanceCount`**   –   (*Optional*) Die Mindestanzahl von Amazon-EC2-Instances, die auf einem Endpunkt bereitgestellt werden sollen, um Vorhersagen zu erstellen.

  *Typ*: Ganzzahl. *Standardwert*: `1`.
+ **`volumeEncryptionKMSKey`**— (*Optional*) Der Schlüssel AWS Key Management Service (AWS KMS), den SageMaker KI verwendet, um Daten auf dem Speichervolume zu verschlüsseln, das an die ML-Compute-Instance (en) angehängt ist, auf denen die Endgeräte ausgeführt werden.

  *Typ:* Zeichenfolge. *Standardwert*: *keiner*.

## Abrufen des Status eines Inferenzendpunkts mit dem Neptune-ML-Befehl `endpoints`
<a name="machine-learning-api-endpoints-get-endpoint-status"></a>

Dies ist ein Beispiel für den Neptune-ML-Befehl `endpoints` für den Abruf des Status eines Instance-Endpunkts:

```
curl -s \
  "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \
  | python -m json.tool
```

**Parameter für den Abruf des Instance-Endpunktstatus mit `endpoints`**
+ **`id`**   –   (*Erforderlich*) Die eindeutige ID des Inferenzendpunkts.

  *Typ:* Zeichenfolge.
+ **`neptuneIamRoleArn`**— (*Optional*) Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker KI- und Amazon S3 S3-Ressourcen bietet.

  *Typ:* Zeichenfolge. *Hinweis*: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.

## Löschen eines Instance-Endpunkts mit dem Neptune-ML-Befehl `endpoints`
<a name="machine-learning-api-endpoints-delete-endpoint"></a>

Dies ist ein Beispiel für den Neptune-ML-Befehl `endpoints` für das Löschen des Status eines Instance-Endpunkts:

```
curl -s \
  -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"
```

Oder:

```
curl -s \
  -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"
```

**Parameter zum Löschen eines Inferenzendpunkts mit `endpoints`**
+ **`id`**   –   (*Erforderlich*) Die eindeutige ID des Inferenzendpunkts.

  *Typ:* Zeichenfolge.
+ **`neptuneIamRoleArn`**— (*Optional*) Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker KI- und Amazon S3 S3-Ressourcen bietet.

  *Typ:* Zeichenfolge. *Hinweis*: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.
+ **`clean`**   –   (*Optional*) Gibt an, dass alle Artefakte, die sich auf diesen Endpunkt beziehen, ebenfalls gelöscht werden sollen.

  *Typ*: boolescher Wert. *Standardwert*: `FALSE`.

## Auflisten von Inferenzendpunkten mit dem Neptune ML-Befehl `endpoints`
<a name="machine-learning-api-endpoints-list-endpoints"></a>

Dies ist ein Neptune-ML-Befehl `endpoints` zum Auflisten von Inferenzendpunkten:

```
curl -s "https://(your Neptune endpoint)/ml/endpoints" \
  | python -m json.tool
```

Oder:

```
curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \
  | python -m json.tool
```

**Parameter zum Auflisten von Inferenzendpunkten mit `dataprocessing`**
+ **`maxItems`**   –   (*Optional*) Die maximale Anzahl der Elemente, die zurückgegeben werden sollen.

  *Typ*: Ganzzahl. *Standardwert*: `10`. *Maximal zulässiger Wert*: `1024`.
+ **`neptuneIamRoleArn`**— (*Optional*) Der ARN einer IAM-Rolle, die Neptune Zugriff auf SageMaker KI- und Amazon S3 S3-Ressourcen bietet.

  *Typ:* Zeichenfolge. *Hinweis*: Er muss in der DB-Cluster-Parametergruppe aufgelistet werden, andernfalls tritt ein Fehler auf.