

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Creazione di un modello
<a name="serverless-endpoints-create-model"></a>

Per creare il modello è necessario fornire la posizione degli artefatti del modello e l'immagine del container. Puoi anche utilizzare una versione del [SageMaker modello](model-registry.md) da Model Registry. Gli esempi nelle sezioni seguenti mostrano come creare un modello utilizzando l'[CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API, il Model Registry e la [console Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/home).

## Per creare un modello (utilizzando Model Registry)
<a name="serverless-endpoints-create-model-registry"></a>

[Model Registry](model-registry.md) è una funzionalità dell' SageMaker intelligenza artificiale che ti aiuta a catalogare e gestire le versioni del tuo modello da utilizzare nelle pipeline ML. Per utilizzare Model Registry con Serverless Inference è necessario prima registrare una versione del modello in un gruppo di modelli di Model Registry. Per informazioni su come registrare un modello in Model Registry, seguire le procedure in [Creazione di un gruppo di modelli](model-registry-model-group.md) e [Registrazione di una versione del modello](model-registry-version.md).

L'esempio seguente richiede l'ARN di una versione registrata del modello e utilizza l'[AWS SDK for Python (Boto3) per chiamare l'API](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html). [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html) Per Serverless Inference, Model Registry è attualmente supportato solo dall' AWS SDK for Python (Boto3). Per l'esempio, specificare i valori seguenti:
+ Per `model_name`, inserire un nome per il modello.
+ Infatti`sagemaker_role`, puoi utilizzare il ruolo predefinito SageMaker creato dall'intelligenza artificiale o un ruolo IAM SageMaker AI personalizzato dal passaggio 4 della sezione. [Completa i prerequisiti](serverless-endpoints-prerequisites.md)
+ Per `ModelPackageName`, specificare l'ARN per la versione del modello, che deve essere registrata su un gruppo di modelli in Model Registry.

```
#Setup
import boto3
import sagemaker
region = boto3.Session().region_name
client = boto3.client("sagemaker", region_name=region)

#Role to give SageMaker AI permission to access AWS services.
sagemaker_role = sagemaker.get_execution_role()

#Specify a name for the model
model_name = "<name-for-model>"

#Specify a Model Registry model version
container_list = [
    {
        "ModelPackageName": <model-version-arn>
     }
 ]

#Create the model
response = client.create_model(
    ModelName = model_name,
    ExecutionRoleArn = sagemaker_role,
    container_list
)
```

## Per creare un modello (utilizzando l'API)
<a name="serverless-endpoints-create-model-api"></a>

L'esempio seguente utilizza l'[AWS SDK for Python (Boto3) per chiamare l'](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html)API. [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html) Specifica i seguenti valori:
+ `sagemaker_role,`Puoi infatti utilizzare il ruolo predefinito SageMaker creato dall'intelligenza artificiale o un ruolo IAM SageMaker AI personalizzato dal passaggio 4 della sezione. [Completa i prerequisiti](serverless-endpoints-prerequisites.md)
+ Per `model_url`, specificare l'URI di Amazon S3 per il proprio modello.
+ Per `container`, recuperare il container che si desidera utilizzare tramite il relativo percorso Amazon ECR. Questo esempio utilizza un contenitore fornito dall' SageMaker intelligenza artificiale XGBoost . Se non hai selezionato un contenitore SageMaker AI o ne hai portato uno tuo, consulta il passaggio 6 della [Completa i prerequisiti](serverless-endpoints-prerequisites.md) sezione per ulteriori informazioni.
+ Per `model_name`, inserire un nome per il modello.

```
#Setup
import boto3
import sagemaker
region = boto3.Session().region_name
client = boto3.client("sagemaker", region_name=region)

#Role to give SageMaker AI permission to access AWS services.
sagemaker_role = sagemaker.get_execution_role()

#Get model from S3
model_url = "s3://amzn-s3-demo-bucket/models/model.tar.gz"

#Get container image (prebuilt example)
from sagemaker import image_uris
container = image_uris.retrieve("xgboost", region, "0.90-1")

#Create model
model_name = "<name-for-model>"

response = client.create_model(
    ModelName = model_name,
    ExecutionRoleArn = sagemaker_role,
    Containers = [{
        "Image": container,
        "Mode": "SingleModel",
        "ModelDataUrl": model_url,
    }]
)
```

## Per creare un modello (utilizzando la console)
<a name="serverless-endpoints-create-model-console"></a>

1. Accedi alla [console Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/home).

1. Nella scheda di navigazione, scegliere **Inferenza**.

1. Dopodiché, scegliere **Modelli**.

1. Scegliere **Crea modello**.

1. In **Nome modello**, inserisci un nome per il modello che sia univoco per il tuo account e Regione AWS.

1. Per il **ruolo IAM**, seleziona un ruolo IAM che hai già creato (vedi[Completa i prerequisiti](serverless-endpoints-prerequisites.md)) o consenti all' SageMaker IA di crearne uno per te.

1. In **Definizione container 1**, per **Opzioni di input del container**, selezionare **Fornisci gli artefatti del modello e la posizione di input**.

1. Per **Fornisci artefatti del modello e opzioni di immagine di inferenza**, selezionare **Utilizza un singolo modello**.

1. Per **Posizione dell'immagine del codice di inferenza**, inserisci un percorso Amazon ECR verso un container. L'immagine deve essere un'immagine di prima parte SageMaker fornita dall'intelligenza artificiale (ad esempio TensorFlow XGBoost) o un'immagine che risiede in un repository Amazon ECR all'interno dello stesso account in cui stai creando l'endpoint. Se non disponi di un container, torna alla fase 6 della sezione [Completa i prerequisiti](serverless-endpoints-prerequisites.md) per ulteriori informazioni.

1. Per **Posizione degli artefatti dei modelli**, inserire l'URI di Amazon S3 nel proprio modello ML. Ad esempio, `s3://amzn-s3-demo-bucket/models/model.tar.gz`.

1. (Facoltativo) Per **Tag**, aggiungere coppie chiave-valore per creare metadati per il modello.

1. Scegli **Crea modello**.