Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Mengelola titik akhir inferensi menggunakan perintah endpoints
Anda menggunakan perintah endpoints Neptune ML untuk membuat titik akhir inferensi, memeriksa statusnya, menghapus, atau membuat daftar titik akhir inferensi yang ada.
Pembuatan titik akhir inferensi menggunakan perintah endpoints Neptune ML
Perintah Neptunus endpoints Neptunus untuk membuat titik akhir inferensi dari model yang dibuat oleh pekerjaan pelatihan terlihat seperti ini:
curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'
Perintah Neptunus endpoints Neptunus untuk memperbarui titik akhir inferensi yang ada dari model yang dibuat oleh pekerjaan pelatihan terlihat seperti ini:
curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTrainingJobId": "(the model-training job-id of a completed job)" }'
Perintah Neptunus endpoints Neptunus untuk membuat titik akhir inferensi dari model yang dibuat oleh pekerjaan transformasi model terlihat seperti ini:
curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'
Perintah Neptunus endpoints Neptunus untuk memperbarui titik akhir inferensi yang ada dari model yang dibuat oleh pekerjaan transformasi model terlihat seperti ini:
curl \ -X POST https://(your Neptune endpoint)/ml/endpoints -H 'Content-Type: application/json' \ -d '{ "id" : "(a unique ID for the new endpoint)", "update" : "true", "mlModelTransformJobId": "(the model-training job-id of a completed job)" }'
Parameter untuk pembuatan titik akhir inferensi endpoints
-
id– (Opsional) Pengidentifikasi unik untuk titik akhir inferensi baru.Tipe: string. Default: Nama berstampel waktu yang otomatis dihasilkan.
-
mlModelTrainingJobId— Id pekerjaan dari pekerjaan pelatihan model yang telah diselesaikan yang telah menciptakan model yang akan ditunjukkan oleh titik akhir inferensi.Tipe: string.
Catatan: Anda harus menyediakan salah satu
mlModelTrainingJobIdataumlModelTransformJobId. -
mlModelTransformJobId— Id pekerjaan dari pekerjaan transformasi model yang telah selesai.Tipe: string.
Catatan: Anda harus menyediakan salah satu
mlModelTrainingJobIdataumlModelTransformJobId. -
update— (Opsional) Jika ada, parameter ini menunjukkan bahwa ini adalah permintaan pembaruan.Tipe: Boolean. Default:
falseCatatan: Anda harus menyediakan salah satu
mlModelTrainingJobIdataumlModelTransformJobId. -
neptuneIamRoleArn— (Opsional) ARN dari peran IAM yang menyediakan akses Neptunus ke sumber daya AI dan Amazon S3. SageMakerTipe: string. Catatan: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.
-
modelName– (Opsional) Jenis model untuk latihan. Secara default model ML secara otomatis didasarkan padamodelTypeyang digunakan dalam pemrosesan data, tetapi Anda dapat menentukan jenis model yang berbeda di sini.Tipe: string. Default:
rgcnuntuk grafik heterogen dankgeuntuk grafik pengetahuan. Nilai yang valid: Untuk grafik heterogen:rgcn. Untuk grafik pengetahuan:kge,transe,distmult, ataurotate. -
instanceType– (Opsional) Jenis instans ML yang digunakan untuk servis online.Tipe: string. Default:
ml.m5.xlarge.Catatan: Memilih instans ML untuk titik akhir inferensi tergantung pada jenis tugas, ukuran grafik, dan anggaran Anda. Lihat Memilih instance untuk titik akhir inferensi.
-
instanceCount— (Opsional) Jumlah minimum EC2 instans Amazon untuk diterapkan ke titik akhir untuk prediksi.Tipe: integer. Default:
1. -
volumeEncryptionKMSKey— (Opsional) Kunci AWS Key Management Service (AWS KMS) yang digunakan SageMaker AI untuk mengenkripsi data pada volume penyimpanan yang dilampirkan ke instance komputasi HTML yang menjalankan titik akhir.Tipe: string. Default: tidak ada.
Mendapatkan status titik akhir inferensi menggunakan perintah endpoints Neptune ML
Perintah endpoints Neptune ML sampel untuk status titik akhir instans terlihat seperti ini:
curl -s \ "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \ | python -m json.tool
Parameter untuk status titik akhir instans endpoints
-
id– (Wajib) Pengenal unik dari titik akhir inferensi.Tipe: string.
-
neptuneIamRoleArn— (Opsional) ARN dari peran IAM yang menyediakan akses Neptunus ke sumber daya AI dan Amazon S3. SageMakerTipe: string. Catatan: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.
Menghapus titik akhir instans menggunakan perintah endpoints Neptune ML
Perintah endpoints Neptune ML sampel untuk menghapus titik akhir instans terlihat seperti ini:
curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"
Atau ini:
curl -s \ -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"
Parameter untuk endpoints menghapus sebuah titik akhir inferensi
-
id– (Wajib) Pengenal unik dari titik akhir inferensi.Tipe: string.
-
neptuneIamRoleArn— (Opsional) ARN dari peran IAM yang menyediakan akses Neptunus ke sumber daya AI dan Amazon S3. SageMakerTipe: string. Catatan: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.
-
clean— (Opsional) Menunjukkan bahwa semua artefak yang terkait dengan titik akhir ini juga harus dihapus.Tipe: Boolean. Default:
FALSE.
Membuat daftar titik akhir inferensi menggunakan perintah endpoints Neptune ML
Perintah Neptunus Neptunus endpoints untuk mencantumkan titik akhir inferensi terlihat seperti ini:
curl -s "https://(your Neptune endpoint)/ml/endpoints" \ | python -m json.tool
Atau ini:
curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \ | python -m json.tool
Parameter untuk dataprocessing membuat daftar titik akhir inferensi
-
maxItems– (Opsional) Jumlah maksimum item yang akan dikembalikan.Tipe: integer. Default:
10. Nilai maksimum yang diperbolehkan:1024. -
neptuneIamRoleArn— (Opsional) ARN dari peran IAM yang menyediakan akses Neptunus ke sumber daya AI dan Amazon S3. SageMakerTipe: string. Catatan: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.