本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
Mistral AI 模型
本節說明 Mistral AI 模型的請求參數和回應欄位。使用此資訊透過 InvokeModel 和 InvokeModelWithResponseStream (串流) 操作對 Mistral AI 模型進行推論呼叫。本節也包含 Python 程式碼範例,示範如何呼叫 Mistral AI 模型。若要在推論操作中使用模型,您需要模型的模型 ID。若要取得模型 ID,請參閱 Amazon Bedrock 中支援的基礎模型。某些模型也可以使用 Converse API。若要檢查 Converse API 是否支援特定 Mistral AI 模型,請參閱 支援的模型和模型功能。如需更多程式碼範例,請參閱 使用 AWSSDKs Amazon Bedrock 程式碼範例。
Amazon Bedrock 中的基礎模型支援輸入和輸出模態,因模型而異。若要檢查 Mistral AI 模型支援的模態,請參閱 Amazon Bedrock 中支援的基礎模型。若要檢查 Mistral AI 模型支援的 Amazon Bedrock 功能,請參閱 Amazon Bedrock 中支援的基礎模型。若要檢查哪些 AWS 區域提供 Mistral AI 模型,請參閱 Amazon Bedrock 中支援的基礎模型。
當您使用 Mistral AI 模型進行推論呼叫時,您會包含模型的提示。如需建立 Amazon Bedrock 支援之模型提示的相關資訊,請參閱 提示工程概念。如需 Mistral AI 特定提示資訊,請參閱《Mistral AI 提示工程指南