Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Optimalkan inferensi model untuk latensi
catatan
Fitur Inferensi yang Dioptimalkan Latensi ada dalam rilis pratinjau untuk Amazon Bedrock dan dapat berubah sewaktu-waktu.
Inferensi yang dioptimalkan latensi untuk model dasar dalam Amazon Bedrock memberikan waktu respons yang lebih cepat dan peningkatan respons untuk aplikasi AI. Versi yang dioptimalkan dari Amazon Nova Pro, model Claude 3.5 Haiku Anthropic dan model
Mengakses kemampuan optimasi latensi tidak memerlukan pengaturan tambahan atau penyesuaian model, memungkinkan peningkatan segera aplikasi yang ada dengan waktu respons yang lebih cepat. Anda dapat menyetel parameter “Latency” ke “dioptimalkan” saat memanggil API runtime Amazon Bedrock. Jika Anda memilih “standar” sebagai opsi pemanggilan Anda, permintaan Anda akan dilayani oleh inferensi standar. Secara default semua permintaan dirutekan ke melalui “standar”.
"performanceConfig" : { "latency" : "standard | optimized" }
Setelah Anda mencapai kuota penggunaan untuk optimasi latensi untuk model, kami akan mencoba untuk melayani permintaan dengan latensi Standar. Dalam kasus seperti itu, permintaan akan dibebankan dengan tarif latensi Standar. Konfigurasi latensi untuk permintaan yang disajikan terlihat dalam respons API dan AWS CloudTrail log. Anda juga dapat melihat metrik untuk permintaan latensi yang dioptimalkan di Amazon CloudWatch log di bawah “model-id+latency-optimized”.
Untuk informasi lebih lanjut tentang harga, kunjungi halaman harga
catatan
Inferensi yang dioptimalkan latensi untuk Llama 3.1 405B saat ini mendukung permintaan dengan total jumlah token input dan output hingga 11K. Untuk permintaan jumlah token yang lebih besar, kita akan kembali ke mode standar.
Penyedia | Model | Wilayah yang mendukung profil inferensi |
---|---|---|
Amazon | Nova Pro |
us-east-1 us-east-2 |
Anthropic | Claude 3.5 Haiku |
us-east-2 us-west-2 |
Meta | Llama 3.1 405B Instruct |
us-east-2 |
Meta | Llama 3.1 70B Instruct |
us-east-2 us-west-2 |