Mistral AImodel - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Mistral AImodel

Bagian ini menjelaskan parameter permintaan dan bidang respons untuk Mistral AI model. Gunakan informasi ini untuk membuat panggilan inferensi ke Mistral AI model dengan operasi InvokeModeldan InvokeModelWithResponseStream(streaming). Bagian ini juga mencakup contoh Python kode yang menunjukkan cara memanggil Mistral AI model. Untuk menggunakan model dalam operasi inferensi, Anda memerlukan ID model untuk model tersebut. Untuk mendapatkan ID model, lihatModel pondasi yang didukung di Amazon Bedrock. Beberapa model juga bekerja dengan ConverseAPI. Untuk memeriksa apakah Converse API mendukung Mistral AI model tertentu, lihatModel dan fitur model yang didukung. Untuk contoh kode lainnya, lihatContoh kode untuk Amazon Bedrock menggunakan AWS SDKs.

Model foundation di Amazon Bedrock mendukung modalitas input dan output, yang bervariasi dari model ke model. Untuk memeriksa modalitas yang didukung Mistral AI model, lihat. Model pondasi yang didukung di Amazon Bedrock Untuk memeriksa Amazon Bedrock mana yang memiliki fitur dukungan Mistral AI model, lihatModel pondasi yang didukung di Amazon Bedrock. Untuk memeriksa AWS Wilayah mana Mistral AI model tersedia, lihatModel pondasi yang didukung di Amazon Bedrock.

Saat Anda melakukan panggilan inferensi dengan Mistral AI model, Anda menyertakan prompt untuk model tersebut. Untuk informasi umum tentang membuat prompt untuk model yang didukung Amazon Bedrock, lihat. Konsep rekayasa yang cepat Untuk informasi prompt Mistral AI spesifik, lihat panduan teknik yang Mistral AI cepat.