

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Criar um modelo
<a name="serverless-endpoints-create-model"></a>

Para criar seu modelo, você deve fornecer a localização dos artefatos do modelo e da imagem do contêiner. Você também pode usar uma versão de [SageMaker modelo do Model Registry](model-registry.md). Os exemplos nas seções a seguir mostram como criar um modelo usando a [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html)API, o Model Registry e o [console Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/home).

## Para criar um modelo (usando o Registro de modelo)
<a name="serverless-endpoints-create-model-registry"></a>

O [Model Registry](model-registry.md) é um recurso da SageMaker IA que ajuda você a catalogar e gerenciar versões do seu modelo para uso em pipelines de ML. Para usar o Model Registry com Inferência Sem Servidor, você deve primeiro registrar uma versão do modelo em um grupo de modelos do registro do modelo. Para saber como registrar um modelo no Registro de modelo, siga os procedimentos em [Criar um grupo de modelos](model-registry-model-group.md) e [Registrar uma versão do modelo](model-registry-version.md).

O exemplo a seguir exige que você tenha o ARN de uma versão de modelo registrada e use o [AWS SDK para Python (Boto3) para chamar a API](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html). [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html) Para inferência sem servidor, o Model Registry atualmente só é compatível com o AWS SDK for Python (Boto3). Para o exemplo, especifique os seguintes valores:
+ Em `model_name`, insira um nome para o modelo.
+ Para `sagemaker_role` isso, você pode usar a função padrão SageMaker criada pela IA ou uma função personalizada do SageMaker AI IAM da Etapa 4 da [Concluir os pré-requisitos do .](serverless-endpoints-prerequisites.md) seção.
+ Em `ModelPackageName`, especifique o ARN para a versão do seu modelo, que deve estar registrada em um grupo de modelos no registro do modelo.

```
#Setup
import boto3
import sagemaker
region = boto3.Session().region_name
client = boto3.client("sagemaker", region_name=region)

#Role to give SageMaker AI permission to access AWS services.
sagemaker_role = sagemaker.get_execution_role()

#Specify a name for the model
model_name = "<name-for-model>"

#Specify a Model Registry model version
container_list = [
    {
        "ModelPackageName": <model-version-arn>
     }
 ]

#Create the model
response = client.create_model(
    ModelName = model_name,
    ExecutionRoleArn = sagemaker_role,
    container_list
)
```

## Como criar um modelo (usando API)
<a name="serverless-endpoints-create-model-api"></a>

O exemplo a seguir usa o [AWS SDK para Python (Boto3) para chamar a](https://boto3.amazonaws.com/v1/documentation/api/latest/index.html) API. [CreateModel](https://docs.aws.amazon.com/sagemaker/latest/APIReference/API_CreateModel.html) Especifique os seguintes valores:
+ Pois `sagemaker_role,` você pode usar a função padrão SageMaker criada pela IA ou uma função personalizada do SageMaker AI IAM da Etapa 4 da [Concluir os pré-requisitos do .](serverless-endpoints-prerequisites.md) seção.
+ Em `model_url`, especifique o URI do Amazon S3 para seu modelo.
+ Em `container`, recupere o contêiner que você deseja usar pelo caminho do Amazon ECR. Este exemplo usa um contêiner SageMaker fornecido pela IA XGBoost . Se você não selecionou um contêiner de SageMaker IA ou trouxe o seu, consulte a Etapa 6 da [Concluir os pré-requisitos do .](serverless-endpoints-prerequisites.md) seção para obter mais informações.
+ Em `model_name`, insira um nome para o modelo.

```
#Setup
import boto3
import sagemaker
region = boto3.Session().region_name
client = boto3.client("sagemaker", region_name=region)

#Role to give SageMaker AI permission to access AWS services.
sagemaker_role = sagemaker.get_execution_role()

#Get model from S3
model_url = "s3://amzn-s3-demo-bucket/models/model.tar.gz"

#Get container image (prebuilt example)
from sagemaker import image_uris
container = image_uris.retrieve("xgboost", region, "0.90-1")

#Create model
model_name = "<name-for-model>"

response = client.create_model(
    ModelName = model_name,
    ExecutionRoleArn = sagemaker_role,
    Containers = [{
        "Image": container,
        "Mode": "SingleModel",
        "ModelDataUrl": model_url,
    }]
)
```

## Para criar um modelo (usando o console)
<a name="serverless-endpoints-create-model-console"></a>

1. Faça login no [console do Amazon SageMaker AI](https://console.aws.amazon.com/sagemaker/home).

1. Na guia de navegação, escolha **Inferência**.

1. Em seguida, escolha **Modelos**.

1. Escolha **Criar modelo**.

1. Em **Nome do modelo**, insira um nome para o modelo que seja exclusivo da sua conta Região da AWS e.

1. Para a **função do IAM**, selecione uma função do IAM que você já criou (consulte[Concluir os pré-requisitos do .](serverless-endpoints-prerequisites.md)) ou permita que a SageMaker IA crie uma para você.

1. Em **Definição do contêiner 1**, para **Opções de entrada de contêiner**, selecione **Fornecer artefatos do modelo e local de entrada**.

1. Em **Fornecer artefatos do modelo e opções de imagem de inferência**, selecione **Usar um único modelo**.

1. Em **Localização da imagem do código de inferência**, insira um caminho do Amazon ECR para um contêiner. A imagem deve ser uma imagem primária SageMaker fornecida pela IA (por exemplo TensorFlow, XGBoost) ou uma imagem que resida em um repositório Amazon ECR na mesma conta na qual você está criando o endpoint. Se você não tiver um contêiner, volte para a Etapa 6 da seção [Concluir os pré-requisitos do .](serverless-endpoints-prerequisites.md) para obter mais informações.

1. Em **Local dos artefatos do modelo**, insira o URI do Amazon S3 em seu modelo de ML. Por exemplo, .`s3://amzn-s3-demo-bucket/models/model.tar.gz`

1. (Opcional) Em **Tags**, adicione pares de chave-valor para criar metadados para seu modelo.

1. Escolha **Criar modelo**.