As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Implantar um JumpStart modelo
Você pode implantar um JumpStart modelo pré-treinado para inferência usando a CLI ou o SDK.
Usar a CLI
Execute o comando a seguir para implantar um JumpStart modelo:
hyp create hyp-jumpstart-endpoint \ --version 1.0 \ --model-id deepseek-llm-r1-distill-qwen-1-5b \ --instance-type ml.g5.8xlarge \ --endpoint-name endpoint-test-jscli
Uso da SDK
Crie um script Python com o seguinte conteúdo:
from sagemaker.hyperpod.inference.config.hp_jumpstart_endpoint_config import Model, Server, SageMakerEndpoint, TlsConfig from sagemaker.hyperpod.inference.hp_jumpstart_endpoint import HPJumpStartEndpoint model=Model( model_id='deepseek-llm-r1-distill-qwen-1-5b' ) server=Server( instance_type='ml.g5.8xlarge', ) endpoint_name=SageMakerEndpoint(name='<endpoint-name>') # create spec js_endpoint=HPJumpStartEndpoint( model=model, server=server, sage_maker_endpoint=endpoint_name )
Invocar o endpoint
Usar a CLI
Teste o endpoint com uma entrada de amostra:
hyp invoke hyp-jumpstart-endpoint \ --endpoint-name endpoint-jumpstart \ --body '{"inputs":"What is the capital of USA?"}'
Uso da SDK
Adicione o seguinte código ao seu script Python:
data = '{"inputs":"What is the capital of USA?"}' response = js_endpoint.invoke(body=data).body.read() print(response)
Gerenciar o endpoint
Usar a CLI
Liste e inspecione o endpoint:
hyp list hyp-jumpstart-endpoint hyp get hyp-jumpstart-endpoint --name endpoint-jumpstart
Uso da SDK
Adicione o seguinte código ao seu script Python:
endpoint_iterator = HPJumpStartEndpoint.list() for endpoint in endpoint_iterator: print(endpoint.name, endpoint.status) logs = js_endpoint.get_logs() print(logs)
Limpar os recursos
Ao terminar, exclua o endpoint para evitar custos desnecessários.
Usar a CLI
hyp delete hyp-jumpstart-endpoint --name endpoint-jumpstart
Uso da SDK
js_endpoint.delete()
Próximas etapas
Agora que você treinou um PyTorch modelo, o implantou como um endpoint personalizado e implantou um JumpStart modelo usando a HyperPod CLI e o SDK, explore os recursos avançados:
-
Treinamento em vários nós: escale o treinamento em várias instâncias.
-
Contêineres personalizados: crie ambientes de treinamento especializados.
-
Integração com SageMaker pipelines: automatize seus fluxos de trabalho de ML
-
Monitoramento avançado: configure métricas e alertas personalizados.
Para obter mais exemplos e configurações avançadas, visite o SageMaker HyperPod GitHub repositório