Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Pelajari tentang kasus penggunaan untuk metode inferensi model yang berbeda
Anda dapat langsung menjalankan inferensi model dengan cara berikut:
| Metode | Kasus penggunaan |
|---|---|
| Taman bermain konsol Amazon Bedrock | Jalankan inferensi dalam antarmuka grafis yang ramah pengguna. Nyaman untuk eksplorasi. |
| Converse atau ConverseStream | Menerapkan aplikasi percakapan dengan API terpadu untuk input model. |
| InvokeModel atau InvokeModelWithResponseStream | Kirim satu prompt dan hasilkan respons secara sinkron. Berguna untuk menghasilkan tanggapan secara real time atau untuk permintaan pencarian. |
| StartAsyncInvoke | Kirim satu prompt dan hasilkan respons secara asinkron. Berguna untuk menghasilkan respons dalam skala besar. |
| CreateModelInvocationJob | Siapkan kumpulan data petunjuk dan hasilkan respons dalam batch. |
Fitur Amazon Bedrock berikut juga menggunakan inferensi model sebagai langkah dalam alur kerja yang lebih besar:
-
Evaluasi model menggunakan proses pemanggilan model untuk mengevaluasi kinerja model yang berbeda setelah Anda mengirimkan permintaan. CreateEvaluationJob
-
Basis pengetahuan menggunakan pemanggilan model saat menggunakan RetrieveAndGenerateAPI untuk menghasilkan respons berdasarkan hasil yang diambil dari basis pengetahuan.
-
Agen menggunakan pemanggilan model untuk menghasilkan tanggapan dalam berbagai tahap selama permintaan. InvokeAgent
-
Alur mencakup sumber daya Amazon Bedrock, seperti prompt, basis pengetahuan, dan agen, yang menggunakan pemanggilan model.
Setelah menguji model fondasi yang berbeda dengan petunjuk dan parameter inferensi yang berbeda, Anda dapat mengonfigurasi aplikasi Anda untuk memanggil ini APIs dengan spesifikasi yang Anda inginkan.