Implementa un modello JumpStart - Amazon SageMaker AI

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Implementa un modello JumpStart

Puoi implementare un JumpStart modello pre-addestrato per l'inferenza utilizzando la CLI o l'SDK.

Utilizzo della CLI

Esegui il comando seguente per distribuire un modello: JumpStart

hyp create hyp-jumpstart-endpoint \ --version 1.0 \ --model-id deepseek-llm-r1-distill-qwen-1-5b \ --model-version 2.0.4 \ --instance-type ml.g5.8xlarge \ --endpoint-name endpoint-jumpstart \ --tls-output-s3-uri s3://tls-bucket-inf1-beta2

Utilizzo di SDK

Crea uno script Python con il seguente contenuto:

from sagemaker.hyperpod.inference.config.hp_jumpstart_endpoint_config import Model, Server, SageMakerEndpoint, TlsConfig from sagemaker.hyperpod.inference.hp_jumpstart_endpoint import HPJumpStartEndpoint model = Model( model_id="deepseek-llm-r1-distill-qwen-1-5b", model_version="2.0.4" ) server = Server( instance_type="ml.g5.8xlarge" ) endpoint_name = SageMakerEndpoint(name="endpoint-jumpstart") tls_config = TlsConfig(tls_certificate_output_s3_uri="s3://tls-bucket-inf1-beta2") js_endpoint = HPJumpStartEndpoint( model=model, server=server, sage_maker_endpoint=endpoint_name, tls_config=tls_config ) js_endpoint.create()

Richiamare l'endpoint

Utilizzo della CLI

Testa l'endpoint con un input di esempio:

hyp invoke hyp-jumpstart-endpoint \ --endpoint-name endpoint-jumpstart \ --body '{"inputs":"What is the capital of USA?"}'

Utilizzo di SDK

Aggiungi il seguente codice al tuo script Python:

data = '{"inputs":"What is the capital of USA?"}' response = js_endpoint.invoke(body=data).body.read() print(response)

Gestisci l'endpoint

Utilizzo della CLI

Elenca e ispeziona l'endpoint:

hyp list hyp-jumpstart-endpoint hyp get hyp-jumpstart-endpoint --name endpoint-jumpstart

Utilizzo di SDK

Aggiungi il seguente codice al tuo script Python:

endpoint_iterator = HPJumpStartEndpoint.list() for endpoint in endpoint_iterator: print(endpoint.name, endpoint.status) logs = js_endpoint.get_logs() print(logs)

Pulizia delle risorse

Al termine, elimina l'endpoint per evitare costi inutili.

Utilizzo della CLI

hyp delete hyp-jumpstart-endpoint --name endpoint-jumpstart

Utilizzo di SDK

js_endpoint.delete()

Passaggi successivi

Ora che hai addestrato un PyTorch modello, lo hai distribuito come endpoint personalizzato e distribuito un JumpStart modello utilizzando la HyperPod CLI e l'SDK, esplora le funzionalità avanzate:

  • Formazione multinodo: scalate la formazione su più istanze

  • Contenitori personalizzati: crea ambienti di formazione specializzati

  • Integrazione con SageMaker Pipeline: automatizza i flussi di lavoro ML

  • Monitoraggio avanzato: imposta metriche e avvisi personalizzati

Per altri esempi e configurazioni avanzate, visita il repository. SageMaker HyperPod GitHub