

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Pemilihan instans untuk tahapan Neptunus Neptunus
<a name="machine-learning-on-graphs-instance-selection"></a>

Tahapan pemrosesan Neptunus ML yang berbeda menggunakan SageMaker instance AI yang berbeda. Di sini, kita membahas bagaimana memilih jenis instance yang tepat untuk setiap tahap. Anda dapat menemukan informasi tentang jenis dan harga instans SageMaker AI di [Amazon SageMaker Pricing](https://aws.amazon.com/sagemaker/pricing/).

## Memilih instance untuk pemrosesan data
<a name="machine-learning-on-graphs-processing-instance-size"></a>

Langkah [pemrosesan data SageMaker ](machine-learning-on-graphs-processing.md) AI memerlukan [instance pemrosesan](https://docs.aws.amazon.com/sagemaker/latest/dg/processing-job.html) yang memiliki memori dan penyimpanan disk yang cukup untuk data input, perantara, dan output. Jumlah memori dan penyimpanan disk tertentu yang diperlukan tergantung pada karakteristik grafik Neptune ML dan fitur yang diekspor.

Secara default, Neptunus ML memilih instance `ml.r5` terkecil yang memorinya sepuluh kali lebih besar dari ukuran data grafik yang diekspor pada disk.

## Memilih contoh untuk pelatihan model dan transformasi model
<a name="machine-learning-on-graphs-training-transform-instance-size"></a>

Memilih jenis instans yang tepat untuk [pelatihan model](https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-training.html) [atau transformasi model](https://docs.aws.amazon.com/sagemaker/latest/dg/how-it-works-batch.html) bergantung pada jenis tugas, ukuran grafik, dan persyaratan putaran Anda. Instans GPU memberikan kinerja terbaik. Kami biasanya merekomendasikan `p3` dan contoh `g4dn` serial. Anda juga dapat menggunakan `p2` atau `p4d` contoh.

Secara default, Neptunus ML memilih instans GPU terkecil dengan lebih banyak memori daripada yang dibutuhkan pelatihan model dan transformasi model. Anda dapat menemukan pilihan apa yang ada di `train_instance_recommendation.json` file, di lokasi keluaran pemrosesan data Amazon S3. Berikut adalah contoh isi `train_instance_recommendation.json` file:

```
{ 
  "instance":     "(the recommended instance type for model training and transform)",
  "cpu_instance": "(the recommended instance type for base processing instance)", 
  "disk_size":    "(the estimated disk space required)",
  "mem_size":     "(the estimated memory required)"
}
```

## Memilih instance untuk titik akhir inferensi
<a name="machine-learning-on-graphs-inference-endpoint-instance-size"></a>

Memilih jenis instans yang tepat untuk [titik akhir inferensi](machine-learning-on-graphs-inference-endpoint.md) tergantung pada jenis tugas, ukuran grafik, dan anggaran Anda. Secara default, Neptunus ML memilih instance `ml.m5d` terkecil dengan lebih banyak memori yang dibutuhkan titik akhir inferensi.

**catatan**  
Jika lebih dari 384 GB memori diperlukan, Neptunus ML menggunakan sebuah instance. `ml.r5d.24xlarge`

Anda dapat melihat jenis instance apa yang direkomendasikan Neptunus ML dalam file `infer_instance_recommendation.json` yang terletak di lokasi Amazon S3 yang Anda gunakan untuk pelatihan model. Berikut adalah contoh isi file itu:

```
{ 
  "instance" :   "(the recommended instance type for an inference endpoint)",
  "disk_size" :  "(the estimated disk space required)",
  "mem_size" :   "(the estimated memory required)"
}
```