As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Implante modelos do Autopilot para inferência em tempo real
Depois de treinar seus modelos do Amazon SageMaker Autopilot, você pode configurar um endpoint e obter predições de forma interativa. A seção a seguir descreve as etapas para implantar um modelo em um endpoint de inferência em tempo real do SageMaker AI para obter predições do modelo.
Inferência em tempo real
A inferência em tempo real é ideal para workloads de inferência em que você tem requisitos em tempo real, interativos e de baixa latência. Esta seção mostra como você pode usar a inferência em tempo real para obter predições do seu modelo de forma interativa.
Você pode usar as APIs do SageMaker para implantar manualmente o modelo que produziu a melhor métrica de validação em um experimento do Autopilot da seguinte forma:
Como alternativa, você pode escolher a opção de implantação automática ao criar seu experimento de Autopilot. Para obter informações sobre como configurar a implantação automática de modelos, consulte ModelDeployConfig nos parâmetros de solicitação de CreateAutoMLJobV2. Isso cria um endpoint automaticamente.
nota
Para evitar cobranças desnecessárias, exclua endpoints e recursos desnecessários criados a partir da implantação do modelo. Para obter informações sobre a definição de preço de instâncias por região, consulte Preço do Amazon SageMaker
-
Obtenha as definições do contêiner candidato
Obtenha as definições do contêiner candidato em InferenceContainers. Uma definição de contêiner para inferência se refere ao ambiente conteinerizado projetado para implantar e executar seu modelo treinado do SageMaker para fazer predições.
O exemplo de comando da AWS CLI a seguir usa a API DescribeAutoMLJobV2 para obter definições de candidatos para o melhor candidato a modelo.
aws sagemaker describe-auto-ml-job-v2 --auto-ml-job-namejob-name--regionregion -
Listar candidatos
O exemplo de comando da AWS CLI a seguir usa a API ListCandidatesForAutoMLJob para listar todos os candidatos a modelo.
aws sagemaker list-candidates-for-auto-ml-job --auto-ml-job-name<job-name>--region<region> -
Criar um modelo do SageMaker AI
Use as definições de contêiner das etapas anteriores e uma opção de sua escolha para criar um modelo do SageMaker AI usando a API CreateModel. O comando da AWS CLI a seguir é um exemplo.
aws sagemaker create-model --model-name '<your-candidate-name>' \ --containers ['<container-definition1>,<container-definition2>,<container-definition3>]' \ --execution-role-arn '<execution-role-arn>' --region '<region> -
Criar uma configuração de endpoint
O exemplo de comando da AWS CLI a seguir usa a API CreateEndpointConfig para criar uma configuração de endpoint.
aws sagemaker create-endpoint-config --endpoint-config-name '<your-endpoint-config-name>' \ --production-variants '<list-of-production-variants>' \ --region '<region>' -
Criar o endpoint
O exemplo AWS CLI a seguir usa a API CreateEndpoint para criar o endpoint.
aws sagemaker create-endpoint --endpoint-name '<your-endpoint-name>' \ --endpoint-config-name '<endpoint-config-name-you-just-created>' \ --region '<region>'Verifique o progresso da implantação do seu endpoint usando a API DescribeEndpoint. O comando da AWS CLI a seguir é um exemplo.
aws sagemaker describe-endpoint —endpoint-name '<endpoint-name>' —region<region>Depois que
EndpointStatusmuda paraInService, o endpoint está pronto para ser usado para inferência em tempo real. -
Invocar o endpoint
A estrutura de comando a seguir invoca o endpoint para inferência em tempo real.
aws sagemaker invoke-endpoint --endpoint-name '<endpoint-name>' \ --region '<region>' --body '<your-data>' [--content-type] '<content-type>'<outfile>