

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Buat pekerjaan inferensi batch
<a name="batch-inference-create"></a>

Setelah menyiapkan bucket Amazon S3 dengan file untuk menjalankan inferensi model, Anda dapat membuat pekerjaan inferensi batch. Sebelum Anda mulai, periksa apakah Anda mengatur file sesuai dengan instruksi yang dijelaskan dalam[Format dan unggah data inferensi batch Anda](batch-inference-data.md).

**catatan**  
Untuk mengirimkan pekerjaan inferensi batch menggunakan VPC, Anda harus menggunakan API. Pilih tab API untuk mempelajari cara menyertakan konfigurasi VPC.

Untuk mempelajari cara membuat pekerjaan inferensi batch, pilih tab untuk metode pilihan Anda, lalu ikuti langkah-langkahnya:

------
#### [ Console ]

**Untuk membuat pekerjaan inferensi batch**

1. Masuk ke Konsol Manajemen AWS dengan identitas IAM yang memiliki izin untuk menggunakan konsol Amazon Bedrock. Kemudian, buka konsol Amazon Bedrock di [https://console.aws.amazon.com/bedrock](https://console.aws.amazon.com/bedrock).

1. Dari panel navigasi kiri, pilih **Inferensi Batch**.

1. Di bagian **pekerjaan inferensi Batch**, pilih **Buat pekerjaan**.

1. Di bagian **Job details**, berikan **nama** Job pada pekerjaan inferensi batch dan pilih model yang akan digunakan untuk pekerjaan inferensi batch dengan memilih **Select** model.

1. Di bagian **Jenis pemanggilan Model**, pilih format API untuk data input Anda. Pilih **InvokeModel**apakah data input Anda menggunakan format permintaan khusus model, atau pilih **Converse** jika data input Anda menggunakan format Converse API. Nilai default-nya **InvokeModel**.

1. Di bagian **Input data**, pilih **Browse S3** dan pilih lokasi S3 untuk pekerjaan inferensi batch Anda. Inferensi Batch memproses semua JSONL dan file konten yang menyertainya di lokasi S3 itu, apakah lokasinya adalah folder S3 atau satu file JSONL.
**catatan**  
Jika data masukan ada di bucket S3 milik akun yang berbeda dari akun tempat Anda mengirimkan pekerjaan, Anda harus menggunakan API untuk mengirimkan pekerjaan inferensi batch. Untuk mempelajari cara melakukannya, pilih tab API di atas.

1. Di bagian **Output data**, pilih **Browse S3** dan pilih lokasi S3 untuk menyimpan file output dari pekerjaan inferensi batch Anda. Secara default, data output akan dienkripsi oleh file. Kunci yang dikelola AWS Untuk memilih kunci KMS kustom, pilih **Sesuaikan pengaturan enkripsi (lanjutan)** dan pilih kunci. Untuk informasi selengkapnya tentang enkripsi sumber daya Amazon Bedrock dan menyiapkan kunci KMS kustom, lihat. [Enkripsi data](data-encryption.md)
**catatan**  
Jika Anda berencana untuk menulis data keluaran ke bucket S3 yang termasuk dalam akun berbeda dari akun tempat Anda mengirimkan pekerjaan, Anda harus menggunakan API untuk mengirimkan pekerjaan inferensi batch. Untuk mempelajari cara melakukannya, pilih tab API di atas.

1. Di bagian **Akses layanan**, pilih salah satu opsi berikut:
   + **Gunakan peran layanan yang ada** — Pilih peran layanan dari daftar drop-down. Untuk informasi selengkapnya tentang menyiapkan peran kustom dengan izin yang sesuai, lihat[Izin yang diperlukan untuk inferensi batch](batch-inference-permissions.md).
   + **Membuat dan menggunakan peran layanan baru** — Masukkan nama untuk peran layanan.

1. (Opsional) Untuk mengaitkan tag dengan pekerjaan inferensi batch, perluas bagian **Tag** dan tambahkan kunci dan nilai opsional untuk setiap tag. Untuk informasi selengkapnya, lihat [Menandai sumber daya Amazon Bedrock](tagging.md).

1. Pilih **Buat pekerjaan inferensi batch**.

------
#### [ API ]

Untuk membuat pekerjaan inferensi batch, kirim [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html)permintaan dengan titik akhir [bidang kontrol Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Bidang berikut diperlukan:


****  

| Bidang | Kasus penggunaan | 
| --- | --- | 
| jobName | Untuk menentukan nama untuk pekerjaan itu. | 
| roleArn | Untuk menentukan Nama Sumber Daya Amazon (ARN) peran layanan dengan izin untuk membuat dan mengelola pekerjaan. Untuk informasi selengkapnya, lihat [Buat peran layanan khusus untuk inferensi batch](batch-iam-sr.md). | 
| modelId | Untuk menentukan ID atau ARN model yang akan digunakan dalam inferensi. | 
| inputDataConfig | Untuk menentukan lokasi S3 yang berisi data input. Inferensi Batch memproses semua JSONL dan file konten yang menyertainya di lokasi S3 itu, apakah lokasinya adalah folder S3 atau satu file JSONL. Untuk informasi selengkapnya, lihat [Format dan unggah data inferensi batch Anda](batch-inference-data.md). | 
| outputDataConfig | Untuk menentukan lokasi S3 untuk menulis tanggapan model ke. | 

Bidang berikut adalah opsional:


****  

| Bidang | Kasus penggunaan | 
| --- | --- | 
| modelInvocationType | Untuk menentukan format API dari data input. Setel Converse untuk menggunakan format Converse API, atau InvokeModel (default) untuk menggunakan format permintaan khusus model. Untuk informasi selengkapnya tentang format permintaan Converse, lihat [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html). | 
| timeoutDurationInJam | Untuk menentukan durasi dalam jam setelah itu pekerjaan akan habis. | 
| tag | Untuk menentukan tag apa pun untuk dikaitkan dengan pekerjaan. Untuk informasi selengkapnya, lihat [Menandai sumber daya Amazon Bedrock](tagging.md). | 
| vpcConfig | Untuk menentukan konfigurasi VPC yang akan digunakan untuk melindungi data Anda selama pekerjaan. Untuk informasi selengkapnya, lihat [Lindungi pekerjaan inferensi batch menggunakan VPC](batch-vpc.md). | 
| clientRequestToken | Untuk memastikan permintaan API selesai hanya sekali. Untuk informasi selengkapnya, lihat [Memastikan idempotensi](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

Respons menampilkan sebuah `jobArn` yang dapat Anda gunakan untuk merujuk ke pekerjaan saat melakukan panggilan API terkait inferensi batch lainnya.

------