Implante modelos do Autopilot para inferência em tempo real - SageMaker IA da Amazon

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Implante modelos do Autopilot para inferência em tempo real

Depois de treinar seus modelos do Amazon SageMaker Autopilot, você pode configurar um endpoint e obter predições de forma interativa. A seção a seguir descreve as etapas para implantar um modelo em um endpoint de inferência em tempo real do SageMaker AI para obter predições do modelo.

Inferência em tempo real

A inferência em tempo real é ideal para workloads de inferência em que você tem requisitos em tempo real, interativos e de baixa latência. Esta seção mostra como você pode usar a inferência em tempo real para obter predições do seu modelo de forma interativa.

Você pode usar as APIs do SageMaker para implantar manualmente o modelo que produziu a melhor métrica de validação em um experimento do Autopilot da seguinte forma:

Como alternativa, você pode escolher a opção de implantação automática ao criar seu experimento de Autopilot. Para obter informações sobre como configurar a implantação automática de modelos, consulte ModelDeployConfig nos parâmetros de solicitação de CreateAutoMLJobV2. Isso cria um endpoint automaticamente.

nota

Para evitar cobranças desnecessárias, exclua endpoints e recursos desnecessários criados a partir da implantação do modelo. Para obter informações sobre a definição de preço de instâncias por região, consulte Preço do Amazon SageMaker.

  1. Obtenha as definições do contêiner candidato

    Obtenha as definições do contêiner candidato em InferenceContainers. Uma definição de contêiner para inferência se refere ao ambiente conteinerizado projetado para implantar e executar seu modelo treinado do SageMaker para fazer predições.

    O exemplo de comando da AWS CLI a seguir usa a API DescribeAutoMLJobV2 para obter definições de candidatos para o melhor candidato a modelo.

    aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-name job-name --region region
  2. Listar candidatos

    O exemplo de comando da AWS CLI a seguir usa a API ListCandidatesForAutoMLJob para listar todos os candidatos a modelo.

    aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name <job-name> --region <region>
  3. Criar um modelo do SageMaker AI

    Use as definições de contêiner das etapas anteriores e uma opção de sua escolha para criar um modelo do SageMaker AI usando a API CreateModel. O comando da AWS CLI a seguir é um exemplo.

    aws sagemaker create-model --model-name '<your-candidate-name>' \ --containers ['<container-definition1>, <container-definition2>, <container-definition3>]' \ --execution-role-arn '<execution-role-arn>' --region '<region>
  4. Criar uma configuração de endpoint

    O exemplo de comando da AWS CLI a seguir usa a API CreateEndpointConfig para criar uma configuração de endpoint.

    aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \ --production-variants '<list-of-production-variants>' \ --region '<region>'
  5. Criar o endpoint

    O exemplo AWS CLI a seguir usa a API CreateEndpoint para criar o endpoint.

    aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \ --endpoint-config-name '<endpoint-config-name-you-just-created>' \ --region '<region>'

    Verifique o progresso da implantação do seu endpoint usando a API DescribeEndpoint. O comando da AWS CLI a seguir é um exemplo.

    aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region <region>

    Depois que EndpointStatus muda para InService, o endpoint está pronto para ser usado para inferência em tempo real.

  6. Invocar o endpoint

    A estrutura de comando a seguir invoca o endpoint para inferência em tempo real.

    aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ --region '<region>' --body '<your-data>' [--content-type] '<content-type>' <outfile>