

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Memproses beberapa prompt dengan inferensi batch
<a name="batch-inference"></a>

Dengan inferensi batch, Anda dapat mengirimkan beberapa prompt dan menghasilkan respons secara asinkron. Anda dapat memformat data input Anda dengan menggunakan format `InvokeModel` atau `Converse` API. Inferensi Batch membantu Anda memproses sejumlah besar permintaan secara efisien dengan mengirimkan satu permintaan dan menghasilkan respons dalam bucket Amazon S3. Setelah menentukan input model dalam file yang Anda buat, Anda mengunggah file ke bucket S3. Anda kemudian mengirimkan permintaan inferensi batch dan menentukan bucket S3. Setelah pekerjaan selesai, Anda dapat mengambil file output dari S3. Anda dapat menggunakan inferensi batch untuk meningkatkan kinerja inferensi model pada kumpulan data besar.

**catatan**  
Inferensi Batch tidak didukung untuk model yang disediakan.

Lihat sumber daya berikut untuk informasi umum tentang inferensi batch:
+ Untuk melihat harga untuk inferensi batch, lihat harga [Amazon Bedrock](https://aws.amazon.com/bedrock/pricing/).
+ Untuk melihat kuota untuk inferensi batch, lihat [titik akhir Amazon Bedrock dan](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) kuota di. Referensi Umum AWS
+ Untuk menerima pemberitahuan saat pekerjaan inferensi batch selesai atau mengubah status alih-alih polling, lihat. [Pantau perubahan status pekerjaan Amazon Bedrock menggunakan Amazon EventBridgePantau perubahan acara](monitoring-eventbridge.md)

**Topics**
+ [Wilayah dan model yang Didukung untuk inferensi batch](batch-inference-supported.md)
+ [Prasyarat untuk inferensi batch](batch-inference-prereq.md)
+ [Buat pekerjaan inferensi batch](batch-inference-create.md)
+ [Pantau pekerjaan inferensi batch](batch-inference-monitor.md)
+ [Hentikan pekerjaan inferensi batch](batch-inference-stop.md)
+ [Lihat hasil pekerjaan inferensi batch](batch-inference-results.md)
+ [Contoh kode untuk inferensi batch](batch-inference-example.md)
+ [Mengirimkan sekumpulan prompt dengan OpenAI Batch API](inference-openai-batch.md)