API de endpoint de inferência do Neptune ML
Ações de endpoint de inferência:
CreateMLEndpoint (ação)
O nome da CLI da AWS para essa API é: create-ml-endpoint.
Cria um endpoint de inferência do Neptune ML que permite consultar um modelo específico que o processo de treinamento de modelos construiu. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:CreateMLEndpoint nesse cluster.
Solicitação
-
id (na CLI:
--id): uma string, do tipo:string(uma string codificada em UTF-8).Um identificador exclusivo para o novo endpoint de inferência. O padrão é um nome com carimbo de data e hora gerado automaticamente.
-
instanceCount (na CLI:
--instance-count): um valor inteiro, do tipo:integer(um valor inteiro assinado de 32 bits).O número mínimo de instâncias do Amazon EC2 a serem implantadas em um endpoint para previsão. O padrão é 1.
-
instanceType (na CLI:
--instance-type): uma string, do tipo:string(uma string codificada em UTF-8).O tipo de instância do Neptune ML usada para serviços on-line. O padrão é “”.
ml.m5.xlarge. Selecionar a instância de ML para um endpoint de inferência depende do tipo de tarefa, do tamanho do grafo e do orçamento. -
mlModelTrainingJobId (na CLI:
--ml-model-training-job-id): uma string, do tipo:string(uma string codificada em UTF-8).O ID do trabalho de treinamento de modelos concluído que criou o modelo para o qual o endpoint de inferência apontará. É necessário fornecer o
mlModelTrainingJobIdou omlModelTransformJobId. -
mlModelTransformJobId (na CLI:
--ml-model-transform-job-id): uma string, do tipo:string(uma string codificada em UTF-8).O ID do trabalho de transformação de modelos concluído. É necessário fornecer o
mlModelTrainingJobIdou omlModelTransformJobId. -
modelName (na CLI:
--model-name): uma string, do tipo:string(uma string codificada em UTF-8).Tipo de modelo para treinamento. Por padrão, o modelo do Neptune ML é automaticamente baseado no
modelTypeusado no processamento de dados, mas você pode especificar um tipo de modelo diferente aqui. O padrão érgcnpara grafos heterogêneos ekgepara grafos de conhecimento. O único valor válido para grafos heterogêneos érgcn. Os valores válidos para grafos de conhecimento são:kge,transe,distmulterotate. -
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn): uma string, do tipo:string(uma string codificada em UTF-8).O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
-
update (na CLI:
--update): um valor booliano, do tipo:boolean(um valor booliano (verdadeiro ou falso)).Se definido como
true,updateindicará que se trata de uma solicitação de atualização. O padrão é “”.false. É necessário fornecer omlModelTrainingJobIdou omlModelTransformJobId. -
volumeEncryptionKMSKey (na CLI:
--volume-encryption-kms-key): uma string, do tipo:string(uma string codificada em UTF-8).A chave do Amazon Key Management Service (Amazon KMS) que o SageMaker utiliza para criptografar dados no volume de armazenamento anexado às instâncias de computação de ML que executam o trabalho de treinamento. O padrão é Nenhum.
Resposta
-
arn: uma string, do tipo:
string(uma string codificada em UTF-8).O ARN do novo endpoint de inferência.
-
creationTimeInMillis: é um valor longo, do tipo:
long(um valor inteiro assinado de 64 bits).O tempo de criação do endpoint, em milissegundos.
-
id: uma string, do tipo:
string(uma string codificada em UTF-8).O ID exclusivo do novo endpoint de inferência.
Erros
ListMLEndpoints (ação)
O nome da CLI da AWS para essa API é: list-ml-endpoints.
Lista endpoints de inferência existentes. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:ListMLEndpoints nesse cluster.
Solicitação
-
maxItems (na CLI :
--max-items): um ListMLEndpointsInputMaxItemsInteger, do tipo:integer(um valor inteiro assinado de 32 bits), no mínimo 1 e até 1.024 ?st?s.O número máximo de itens a serem exibidos (de 1 a 1.024; o padrão é 10).
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn): uma string, do tipo:string(uma string codificada em UTF-8).O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.
Resposta
-
ids: uma string, do tipo:
string(uma string codificada em UTF-8).Uma página da lista de IDs de endpoints de inferência.
Erros
GetMLEndpoint (ação)
O nome da CLI da AWS para essa API é: get-ml-endpoint.
Recupera detalhes sobre um endpoint de inferência. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:GetMLEndpointStatus nesse cluster.
Solicitação
-
id (na CLI:
--id): obrigatório: uma string, do tipo:string(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn): uma string, do tipo:string(uma string codificada em UTF-8).O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou ocorrerá um erro.
Resposta
-
endpoint: um objeto MlResourceDefinition.
A definição de endpoint.
-
endpointConfig: um objeto MlConfigDefinition.
A configuração de endpoint.
-
id: uma string, do tipo:
string(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
status: uma string, do tipo:
string(uma string codificada em UTF-8).O status do endpoint de inferência.
Erros
DeleteMLEndpoint (ação)
O nome da CLI da AWS para essa API é: delete-ml-endpoint.
Cancela a criação de um endpoint de inferência do Neptune ML. Consulte Gerenciar endpoints de inferência usando o comando.
Ao invocar essa operação em um cluster do Neptune com a autenticação do IAM habilitada, o usuário ou o perfil do IAM que faz a solicitação deve ter uma política anexada que viabilize a ação do IAM neptune-db:DeleteMLEndpoint nesse cluster.
Solicitação
-
clean (na CLI:
--clean): um valor booliano, do tipo:boolean(um valor booliano (verdadeiro ou falso)).Se esse sinalizador for definido como
TRUE, todos os artefatos do S3 no Neptune ML deverão ser excluídos quando o trabalho for interrompido. O padrão é “”.FALSE. -
id (na CLI:
--id): obrigatório: uma string, do tipo:string(uma string codificada em UTF-8).O identificador exclusivo do endpoint de inferência.
-
neptuneIamRoleArn (na CLI:
--neptune-iam-role-arn): uma string, do tipo:string(uma string codificada em UTF-8).O ARN de um perfil do IAM que concede ao Neptune acesso aos recursos do SageMaker e do Amazon S3. Deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
Resposta
-
status: uma string, do tipo:
string(uma string codificada em UTF-8).O status do cancelamento.