

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Gestione degli endpoint di inferenza mediante il comando `endpoints`
<a name="machine-learning-api-endpoints"></a>

Si utilizza il comando `endpoints` in Neptune ML per creare un endpoint di inferenza, controllarne lo stato, eliminarlo o elencare gli endpoint di inferenza esistenti.

## Creazione di un endpoint di inferenza con il comando `endpoints` in Neptune ML
<a name="machine-learning-api-endpoints-create-job"></a>

Un comando `endpoints` in Neptune ML per la creazione di un endpoint di inferenza da un modello creato da un processo di addestramento ha il seguente aspetto:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Un comando `endpoints` in Neptune ML per l'aggiornamento di un endpoint di inferenza esistente da un modello creato da un processo di addestramento ha il seguente aspetto:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Un comando `endpoints` in Neptune ML per la creazione di un endpoint di inferenza da un modello creato da un processo di trasformazione dei modelli ha il seguente aspetto:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTransformJobId": "(the model-training job-id of a completed job)"
      }'
```

Un comando `endpoints` in Neptune ML per l'aggiornamento di un endpoint di inferenza esistente da un modello creato da un processo di trasformazione dei modelli ha il seguente aspetto:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTransformJobId": "(the model-training job-id of a completed job)"
      }'
```

**Parametri per il comando `endpoints` per la creazione di endpoint di inferenza**
+ **`id`** (*facoltativo*): identificatore univoco per il nuovo endpoint di inferenza.

  *Tipo:* stringa. *Impostazione predefinita*: nome con timestamp generato automaticamente.
+ **`mlModelTrainingJobId`**: ID del processo di addestramento dei modelli completato che ha creato il modello a cui punterà l'endpoint di inferenza.

  *Tipo:* stringa.

  *Nota*: è necessario specificare `mlModelTrainingJobId` o `mlModelTransformJobId`.
+ **`mlModelTransformJobId`**: ID del processo di trasformazione dei modelli completato.

  *Tipo:* stringa.

  *Nota*: è necessario specificare `mlModelTrainingJobId` o `mlModelTransformJobId`.
+ **`update`** (*facoltativo*): se presente, questo parametro indica che si tratta di una richiesta di aggiornamento.

  *Tipo*: Boolean *Default*: `false`

  *Nota*: è necessario specificare `mlModelTrainingJobId` o `mlModelTransformJobId`.
+ **`neptuneIamRoleArn`**— (*Facoltativo*) L'ARN di un ruolo IAM che fornisce a Neptune l'accesso di Neptune alle risorse AI e SageMaker Amazon S3.

  *Tipo:* stringa. *Nota*: deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
+ **`modelName`** (*facoltativo*): tipo di modello per l'addestramento. Per impostazione predefinita, il modello di machine learning è basato automaticamente sul `modelType` utilizzato nell'elaborazione dei dati, ma qui è possibile specificare un tipo di modello diverso.

  *Tipo:* stringa. *Impostazione predefinita*: `rgcn` per i grafi eterogenei e `kge` per i grafi della conoscenza. *Valori validi*: per i grafi eterogenei: `rgcn`. Per i grafi della conoscenza: `kge`, `transe`, `distmult` o `rotate`.
+ **`instanceType`** (*facoltativo*): tipo di istanza ML utilizzata per l'elaborazione online.

  *Tipo:* stringa. *Default*: `ml.m5.xlarge`

  *Nota*: la scelta dell'istanza ML per un endpoint di inferenza dipende dal tipo di attività, dalle dimensioni del grafo e dal budget. Per informazioni, consulta [Selezione di un'istanza per un endpoint di inferenza](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-inference-endpoint-instance-size).
+ **`instanceCount`** (*facoltativo*): numero minimo di istanze Amazon EC2 da implementare su un endpoint ai fini della previsione.

  *Tipo*: numero intero. *Default*: `1`
+ **`volumeEncryptionKMSKey`**— (*Facoltativo*) La chiave AWS Key Management Service (AWS KMS) utilizzata da SageMaker AI per crittografare i dati sul volume di storage collegato alle istanze di calcolo ML che eseguono gli endpoint.

  *Tipo:* stringa. *Impostazione predefinita*: *none*.

## Recupero dello stato di un endpoint di inferenza con il comando `endpoints` in Neptune ML
<a name="machine-learning-api-endpoints-get-endpoint-status"></a>

Un comando `endpoints` di esempio in Neptune ML per lo stato di un endpoint dell'istanza ha il seguente aspetto:

```
curl -s \
  "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \
  | python -m json.tool
```

**Parametri per il comando `endpoints` per lo stato dell'endpoint dell'istanza**
+ **`id`** (*obbligatorio*): identificatore univoco dell'endpoint di inferenza.

  *Tipo:* stringa.
+ **`neptuneIamRoleArn`**— (*Facoltativo*) L'ARN di un ruolo IAM che fornisce a Neptune l'accesso di Neptune alle risorse AI e SageMaker Amazon S3.

  *Tipo:* stringa. *Nota*: deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.

## Eliminazione di un endpoint dell'istanza con il comando `endpoints` in Neptune ML
<a name="machine-learning-api-endpoints-delete-endpoint"></a>

Un comando `endpoints` di esempio in Neptune ML per l'eliminazione di un endpoint dell'istanza ha il seguente aspetto:

```
curl -s \
  -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"
```

Oppure questo:

```
curl -s \
  -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"
```

**Parametri per il comando `endpoints` per l'eliminazione di un endpoint di inferenza**
+ **`id`** (*obbligatorio*): identificatore univoco dell'endpoint di inferenza.

  *Tipo:* stringa.
+ **`neptuneIamRoleArn`**— (*Facoltativo*) L'ARN di un ruolo IAM che fornisce a Neptune l'accesso di Neptune alle risorse AI e SageMaker Amazon S3.

  *Tipo:* stringa. *Nota*: deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.
+ **`clean`** (*facoltativo*): indica che devono essere eliminati anche tutti gli artefatti relativi a questo endpoint.

  *Tipo*: Boolean *Default*: `FALSE`

## Elenco degli endpoint di inferenza con il comando `endpoints` in Neptune ML
<a name="machine-learning-api-endpoints-list-endpoints"></a>

Un comando `endpoints` in Neptune ML per l'elenco degli endpoint di inferenza ha il seguente aspetto:

```
curl -s "https://(your Neptune endpoint)/ml/endpoints" \
  | python -m json.tool
```

Oppure questo:

```
curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \
  | python -m json.tool
```

**Parametri per il comando `dataprocessing` per l'elenco degli endpoint di inferenza**
+ **`maxItems`** (*facoltativo*): numero massimo di elementi da restituire.

  *Tipo*: numero intero. *Default*: `10` *Valore massimo consentito*: `1024`.
+ **`neptuneIamRoleArn`**— (*Facoltativo*) L'ARN di un ruolo IAM che fornisce a Neptune l'accesso di Neptune alle risorse AI e SageMaker Amazon S3.

  *Tipo:* stringa. *Nota*: deve essere elencato nel gruppo di parametri del cluster database o si verificherà un errore.