As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Gerenciar endpoints de inferência usando o comando endpoints
Use o comando endpoints do Neptune ML para criar um endpoint de inferência, conferir o status, excluí-lo ou listar endpoints de inferência existentes.
Criar um endpoint de inferência usando o comando endpoints do Neptune ML
Um comando endpoints do Neptune ML para criar um endpoint de inferência a partir de um modelo criado por um trabalho de treinamento tem a seguinte aparência:
curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'
Um comando endpoints do Neptune ML para atualizar um endpoint de inferência existente a partir de um modelo criado por um trabalho de treinamento tem a seguinte aparência:
curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'
Um comando endpoints do Neptune ML para criar um endpoint de inferência a partir de um modelo criado por um trabalho de transformação de modelos tem a seguinte aparência:
curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'
Um comando endpoints do Neptune ML para atualizar um endpoint de inferência existente a partir de um modelo criado por um trabalho de transformação de modelos tem a seguinte aparência:
curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'
Parâmetros para criação de endpoints de inferência endpoints
-
id: (opcional) um identificador exclusivo para o novo endpoint de inferência.Tipo: string. Padrão: um nome com carimbo de data e hora gerado automaticamente.
-
mlModelTrainingJobId: o ID do trabalho de treinamento de modelos concluído que criou o modelo para o qual o endpoint de inferência apontará.Tipo: string.
Observação: é necessário fornecer o
mlModelTrainingJobIdou omlModelTransformJobId. -
mlModelTransformJobId: o ID do trabalho de transformação de modelos concluído.Tipo: string.
Observação: é necessário fornecer o
mlModelTrainingJobIdou omlModelTransformJobId. -
update: (opcional) se presente, esse parâmetro indica que se trata de uma solicitação de atualização.Tipo: booliano. Padrão:
falseObservação: é necessário fornecer o
mlModelTrainingJobIdou omlModelTransformJobId. -
neptuneIamRoleArn— (Opcional) O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos de IA e SageMaker Amazon S3.Tipo: string. Observação: deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
-
modelName: (opcional) o tipo de modelo para treinamento. Por padrão, o modelo de ML é automaticamente baseado nomodelTypeusado no processamento de dados, mas você pode especificar um tipo de modelo diferente aqui.Tipo: string. Padrão:
rgcnpara grafos heterogêneos ekgepara grafos de conhecimento. Valores válidos: para grafos heterogêneos:rgcn. Para grafos de conhecimento:kge,transe,distmultourotate. -
instanceType: (opcional) o tipo de instância de ML usada para serviços on-line.Tipo: string. Padrão:
ml.m5.xlarge.Observação: selecionar a instância de ML para um endpoint de inferência depende do tipo de tarefa, do tamanho do grafo e do orçamento. Consulte Selecionar uma instância para um endpoint de inferência.
-
instanceCount— (Opcional) O número mínimo de EC2 instâncias da Amazon a serem implantadas em um endpoint para previsão.Tipo: número inteiro. Padrão:
1. -
volumeEncryptionKMSKey— (Opcional) A chave AWS Key Management Service (AWS KMS) que a SageMaker IA usa para criptografar dados no volume de armazenamento anexado às instâncias de computação de ML que executam os endpoints.Tipo: string Padrão: nenhum.
Obter o status de um endpoint de inferência usando o comando endpoints do Neptune ML
Um exemplo de comando endpoints do Neptune ML para o status de um endpoint de instância tem a seguinte aparência:
curl -s \ "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \ | python -m json.tool
Parâmetros para o status do endpoint da instância endpoints
-
id: (obrigatório) o identificador exclusivo do endpoint de inferência.Tipo: string.
-
neptuneIamRoleArn— (Opcional) O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos de IA e SageMaker Amazon S3.Tipo: string. Observação: deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
Excluir um endpoint de instância usando o comando endpoints do Neptune ML
Um exemplo de comando endpoints do Neptune ML para exclusão de um endpoint de instância tem a seguinte aparência:
curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"
Ou esta:
curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"
Parâmetros para exclusão endpoints de um endpoint de inferência
-
id: (obrigatório) o identificador exclusivo do endpoint de inferência.Tipo: string.
-
neptuneIamRoleArn— (Opcional) O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos de IA e SageMaker Amazon S3.Tipo: string. Observação: deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.
-
clean: (opcional) indica que todos os artefatos relacionados a esse endpoint também devem ser excluídos.Tipo: booliano. Padrão:
FALSE.
Listar endpoints de inferência usando o comando endpoints do Neptune ML
Um comando endpoints do Neptune ML para listar endpoints de inferência tem a seguinte aparência:
curl -s "https://(your Neptune endpoint)/ml/endpoints" \ | python -m json.tool
Ou esta:
curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \ | python -m json.tool
Parâmetros para listar endpoints de inferência dataprocessing
-
maxItems: (opcional) o número máximo de itens a serem gerados.Tipo: número inteiro. Padrão:
10. Valor máximo permitido:1024. -
neptuneIamRoleArn— (Opcional) O ARN de uma função do IAM que fornece ao Neptune acesso aos recursos de IA e SageMaker Amazon S3.Tipo: string. Observação: deve estar listado no grupo de parâmetros do cluster de banco de dados ou será lançado um erro.