Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menerapkan model kustom
Setelah pelatihan selesai, gunakan model Anda untuk inferensi. Anda dapat menerapkan model kustom menggunakan CLI atau SDK.
Temukan artefak model Anda
-
Periksa bucket S3 Anda: Verifikasi bahwa artefak model disimpan di
s3://my-bucket/model-artifacts/
-
Perhatikan jalur yang tepat: Anda akan memerlukan jalur lengkap (misalnya,
s3://my-bucket/model-artifacts/test-pytorch-job/model.tar.gz
)
Terapkan menggunakan CLI
Jalankan perintah berikut untuk menerapkan model kustom Anda:
hyp create hyp-custom-endpoint \ --version 1.0 \ --env '{"HF_MODEL_ID":"/opt/ml/model", "SAGEMAKER_PROGRAM":"inference.py", }' \ --model-source-type s3 \ --model-location test-pytorch-job/model.tar.gz \ --s3-bucket-name my-bucket \ --s3-region us-east-2 \ --prefetch-enabled true \ --image-uri 763104351884.dkr.ecr.us-east-1.amazonaws.com/pytorch-inference:latest \ --model-volume-mount-name model-weights \ --container-port 8080 \ --resources-requests '{"cpu": "30000m", "nvidia.com/gpu": 1, "memory": "100Gi"}' \ --resources-limits '{"nvidia.com/gpu": 1}' \ --tls-output-s3-uri s3://tls-bucket-inf1-beta2 \ --instance-type ml.g5.8xlarge \ --endpoint-name endpoint-custom-pytorch \ --model-name pytorch-custom-model \
Perintah ini menyebarkan model terlatih sebagai titik akhir bernama. endpoint-custom-pytorch
--model-location
Referensi jalur artefak dari pekerjaan pelatihan.
Terapkan menggunakan Python SDK
Buat skrip Python dengan konten berikut:
from sagemaker.hyperpod.inference.config.hp_custom_endpoint_config import Model, Server, SageMakerEndpoint, TlsConfig, EnvironmentVariables from sagemaker.hyperpod.inference.hp_custom_endpoint import HPCustomEndpoint model = Model( model_source_type="s3", model_location="test-pytorch-job/model.tar.gz", s3_bucket_name="my-bucket", s3_region="us-east-2", prefetch_enabled=True ) server = Server( instance_type="ml.g5.8xlarge", image_uri="763104351884.dkr.ecr.us-east-2.amazonaws.com/huggingface-pytorch-tgi-inference:2.4.0-tgi2.3.1-gpu-py311-cu124-ubuntu22.04-v2.0", container_port=8080, model_volume_mount_name="model-weights" ) resources = { "requests": {"cpu": "30000m", "nvidia.com/gpu": 1, "memory": "100Gi"}, "limits": {"nvidia.com/gpu": 1} } env = EnvironmentVariables( HF_MODEL_ID="/opt/ml/model", SAGEMAKER_PROGRAM="inference.py", SAGEMAKER_SUBMIT_DIRECTORY="/opt/ml/model/code", MODEL_CACHE_ROOT="/opt/ml/model", SAGEMAKER_ENV="1" ) endpoint_name = SageMakerEndpoint(name="endpoint-custom-pytorch") tls_config = TlsConfig(tls_certificate_output_s3_uri="s3://tls-bucket-inf1-beta2") custom_endpoint = HPCustomEndpoint( model=model, server=server, resources=resources, environment=env, sage_maker_endpoint=endpoint_name, tls_config=tls_config, ) custom_endpoint.create()
Memanggil titik akhir
Menggunakan CLI
Uji titik akhir dengan input sampel:
hyp invoke hyp-custom-endpoint \ --endpoint-name endpoint-custom-pytorch \ --body '{"inputs":"What is the capital of USA?"}'
Ini mengembalikan respons model, seperti “Ibukota AS adalah Washington, D.C.”
Menggunakan SDK
Tambahkan kode berikut ke skrip Python Anda:
data = '{"inputs":"What is the capital of USA?"}' response = custom_endpoint.invoke(body=data).body.read() print(response)
Kelola titik akhir
Menggunakan CLI
Daftar dan periksa titik akhir:
hyp list hyp-custom-endpoint hyp get hyp-custom-endpoint --name endpoint-custom-pytorch
Menggunakan SDK
Tambahkan kode berikut ke skrip Python Anda:
logs = custom_endpoint.get_logs() print(logs)
Pembersihan sumber daya
Setelah selesai, hapus titik akhir untuk menghindari biaya yang tidak perlu.
Menggunakan CLI
hyp delete hyp-custom-endpoint --name endpoint-custom-pytorch
Menggunakan SDK
custom_endpoint.delete()
Langkah selanjutnya
Anda telah berhasil menerapkan dan menguji model kustom menggunakan SageMaker HyperPod. Anda sekarang dapat menggunakan endpoint ini untuk inferensi dalam aplikasi Anda.