Déployer un JumpStart modèle - Amazon SageMaker AI

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Déployer un JumpStart modèle

Vous pouvez déployer un JumpStart modèle préentraîné à des fins d'inférence à l'aide de la CLI ou du SDK.

Utilisation de l’ CLI

Exécutez la commande suivante pour déployer un JumpStart modèle :

hyp create hyp-jumpstart-endpoint \ --version 1.0 \ --model-id deepseek-llm-r1-distill-qwen-1-5b \ --model-version 2.0.4 \ --instance-type ml.g5.8xlarge \ --endpoint-name endpoint-jumpstart \ --tls-output-s3-uri s3://tls-bucket-inf1-beta2

Utilisation de l'SDK

Créez un script Python avec le contenu suivant :

from sagemaker.hyperpod.inference.config.hp_jumpstart_endpoint_config import Model, Server, SageMakerEndpoint, TlsConfig from sagemaker.hyperpod.inference.hp_jumpstart_endpoint import HPJumpStartEndpoint model = Model( model_id="deepseek-llm-r1-distill-qwen-1-5b", model_version="2.0.4" ) server = Server( instance_type="ml.g5.8xlarge" ) endpoint_name = SageMakerEndpoint(name="endpoint-jumpstart") tls_config = TlsConfig(tls_certificate_output_s3_uri="s3://tls-bucket-inf1-beta2") js_endpoint = HPJumpStartEndpoint( model=model, server=server, sage_maker_endpoint=endpoint_name, tls_config=tls_config ) js_endpoint.create()

Appeler le point de terminaison

Utilisation de l’ CLI

Testez le point final avec un échantillon d'entrée :

hyp invoke hyp-jumpstart-endpoint \ --endpoint-name endpoint-jumpstart \ --body '{"inputs":"What is the capital of USA?"}'

Utilisation de l'SDK

Ajoutez le code suivant à votre script Python :

data = '{"inputs":"What is the capital of USA?"}' response = js_endpoint.invoke(body=data).body.read() print(response)

Gérez le point de terminaison

Utilisation de l’ CLI

Répertoriez et inspectez le point de terminaison :

hyp list hyp-jumpstart-endpoint hyp get hyp-jumpstart-endpoint --name endpoint-jumpstart

Utilisation de l'SDK

Ajoutez le code suivant à votre script Python :

endpoint_iterator = HPJumpStartEndpoint.list() for endpoint in endpoint_iterator: print(endpoint.name, endpoint.status) logs = js_endpoint.get_logs() print(logs)

Nettoyage des ressources

Lorsque vous avez terminé, supprimez le point de terminaison pour éviter des coûts inutiles.

Utilisation de l’ CLI

hyp delete hyp-jumpstart-endpoint --name endpoint-jumpstart

Utilisation de l'SDK

js_endpoint.delete()

Étapes suivantes

Maintenant que vous avez formé un PyTorch modèle, que vous l'avez déployé en tant que point de terminaison personnalisé et que vous avez déployé un JumpStart modèle à l'aide HyperPod de la CLI et du SDK, explorez les fonctionnalités avancées :

  • Entraînement à nœuds multiples : échelonnez la formation sur plusieurs instances

  • Conteneurs personnalisés : créez des environnements de formation spécialisés

  • Intégration aux SageMaker pipelines : automatisez vos flux de travail ML

  • Surveillance avancée : configurez des métriques et des alertes personnalisées

Pour plus d'exemples et de configurations avancées, consultez le SageMaker HyperPod GitHub référentiel.