

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Mengelola titik akhir inferensi menggunakan perintah `endpoints`
<a name="machine-learning-api-endpoints"></a>

Anda menggunakan perintah `endpoints` Neptune ML untuk membuat titik akhir inferensi, memeriksa statusnya, menghapus, atau membuat daftar titik akhir inferensi yang ada.

## Pembuatan titik akhir inferensi menggunakan perintah `endpoints` Neptune ML
<a name="machine-learning-api-endpoints-create-job"></a>

Perintah Neptunus `endpoints` Neptunus untuk membuat titik akhir inferensi dari model yang dibuat oleh pekerjaan pelatihan terlihat seperti ini:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Perintah Neptunus `endpoints` Neptunus untuk memperbarui titik akhir inferensi yang ada dari model yang dibuat oleh pekerjaan pelatihan terlihat seperti ini:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTrainingJobId": "(the model-training job-id of a completed job)"
      }'
```

Perintah Neptunus `endpoints` Neptunus untuk membuat titik akhir inferensi dari model yang dibuat oleh pekerjaan transformasi model terlihat seperti ini:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "mlModelTransformJobId": "(the model-training job-id of a completed job)"
      }'
```

Perintah Neptunus `endpoints` Neptunus untuk memperbarui titik akhir inferensi yang ada dari model yang dibuat oleh pekerjaan transformasi model terlihat seperti ini:

```
curl \
  -X POST https://(your Neptune endpoint)/ml/endpoints
  -H 'Content-Type: application/json' \
  -d '{
        "id" : "(a unique ID for the new endpoint)",
        "update" : "true",
        "mlModelTransformJobId": "(the model-training job-id of a completed job)"
      }'
```

**Parameter untuk pembuatan titik akhir inferensi `endpoints`**
+ **`id`**   –   (*Opsional*) Pengidentifikasi unik untuk titik akhir inferensi baru.

  *Tipe*: string. *Default*: Nama berstampel waktu yang otomatis dihasilkan.
+ **`mlModelTrainingJobId`**— Id pekerjaan dari pekerjaan pelatihan model yang telah diselesaikan yang telah menciptakan model yang akan ditunjukkan oleh titik akhir inferensi.

  *Tipe*: string.

  *Catatan*: Anda harus menyediakan salah satu `mlModelTrainingJobId` atau`mlModelTransformJobId`.
+ **`mlModelTransformJobId`**— Id pekerjaan dari pekerjaan transformasi model yang telah selesai.

  *Tipe*: string.

  *Catatan*: Anda harus menyediakan salah satu `mlModelTrainingJobId` atau`mlModelTransformJobId`.
+ **`update`**— (*Opsional*) Jika ada, parameter ini menunjukkan bahwa ini adalah permintaan pembaruan.

  *Tipe*: Boolean. *Default*: `false`

  *Catatan*: Anda harus menyediakan salah satu `mlModelTrainingJobId` atau`mlModelTransformJobId`.
+ **`neptuneIamRoleArn`**— (*Opsional*) ARN dari peran IAM yang menyediakan akses Neptunus ke sumber daya AI dan Amazon S3. SageMaker 

  *Tipe*: string. *Catatan*: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.
+ **`modelName`**   –   (*Opsional*) Jenis model untuk latihan. Secara default model ML secara otomatis didasarkan pada `modelType` yang digunakan dalam pemrosesan data, tetapi Anda dapat menentukan jenis model yang berbeda di sini.

  *Tipe*: string. *Default*: `rgcn` untuk grafik heterogen dan `kge` untuk grafik pengetahuan. *Nilai yang valid*: Untuk grafik heterogen: `rgcn`. Untuk grafik pengetahuan: `kge`, `transe`, `distmult`, atau `rotate`.
+ **`instanceType`**   –   (*Opsional*) Jenis instans ML yang digunakan untuk servis online.

  *Tipe*: string. *Default*: `ml.m5.xlarge`.

  *Catatan*: Memilih instans ML untuk titik akhir inferensi tergantung pada jenis tugas, ukuran grafik, dan anggaran Anda. Lihat [Memilih instance untuk titik akhir inferensi](machine-learning-on-graphs-instance-selection.md#machine-learning-on-graphs-inference-endpoint-instance-size).
+ **`instanceCount`**   –   (*Opsional*) Jumlah minimum instans Amazon EC2 untuk mendeploy ke titik akhir untuk prediksi.

  *Tipe*: integer. *Default*: `1`.
+ **`volumeEncryptionKMSKey`**— (*Opsional*) Kunci AWS Key Management Service (AWS KMS) yang digunakan SageMaker AI untuk mengenkripsi data pada volume penyimpanan yang dilampirkan ke instance komputasi HTML yang menjalankan titik akhir.

  *Tipe*: string. *Default*: *tidak ada*.

## Mendapatkan status titik akhir inferensi menggunakan perintah `endpoints` Neptune ML
<a name="machine-learning-api-endpoints-get-endpoint-status"></a>

Perintah `endpoints` Neptune ML sampel untuk status titik akhir instans terlihat seperti ini:

```
curl -s \
  "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)" \
  | python -m json.tool
```

**Parameter untuk status titik akhir instans `endpoints`**
+ **`id`**   –   (*Wajib*) Pengenal unik dari titik akhir inferensi.

  *Tipe*: string.
+ **`neptuneIamRoleArn`**— (*Opsional*) ARN dari peran IAM yang menyediakan akses Neptunus ke sumber daya AI dan Amazon S3. SageMaker 

  *Tipe*: string. *Catatan*: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.

## Menghapus titik akhir instans menggunakan perintah `endpoints` Neptune ML
<a name="machine-learning-api-endpoints-delete-endpoint"></a>

Perintah `endpoints` Neptune ML sampel untuk menghapus titik akhir instans terlihat seperti ini:

```
curl -s \
  -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)"
```

Atau ini:

```
curl -s \
  -X DELETE "https://(your Neptune endpoint)/ml/endpoints/(the inference endpoint ID)?clean=true"
```

**Parameter untuk `endpoints` menghapus sebuah titik akhir inferensi**
+ **`id`**   –   (*Wajib*) Pengenal unik dari titik akhir inferensi.

  *Tipe*: string.
+ **`neptuneIamRoleArn`**— (*Opsional*) ARN dari peran IAM yang menyediakan akses Neptunus ke sumber daya AI dan Amazon S3. SageMaker 

  *Tipe*: string. *Catatan*: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.
+ **`clean`**— (*Opsional*) Menunjukkan bahwa semua artefak yang terkait dengan titik akhir ini juga harus dihapus.

  *Tipe*: Boolean. *Default*: `FALSE`.

## Membuat daftar titik akhir inferensi menggunakan perintah `endpoints` Neptune ML
<a name="machine-learning-api-endpoints-list-endpoints"></a>

Perintah Neptunus Neptunus `endpoints` untuk mencantumkan titik akhir inferensi terlihat seperti ini:

```
curl -s "https://(your Neptune endpoint)/ml/endpoints" \
  | python -m json.tool
```

Atau ini:

```
curl -s "https://(your Neptune endpoint)/ml/endpoints?maxItems=3" \
  | python -m json.tool
```

**Parameter untuk `dataprocessing` membuat daftar titik akhir inferensi**
+ **`maxItems`**   –   (*Opsional*) Jumlah maksimum item yang akan dikembalikan.

  *Tipe*: integer. *Default*: `10`. *Nilai maksimum yang diperbolehkan*: `1024`.
+ **`neptuneIamRoleArn`**— (*Opsional*) ARN dari peran IAM yang menyediakan akses Neptunus ke sumber daya AI dan Amazon S3. SageMaker 

  *Tipe*: string. *Catatan*: Ini harus tercantum dalam grup parameter klaster DB Anda atau kesalahan akan dilemparkan.