Modèles Mistral AI
Cette section décrit les paramètres de demande et les champs de réponse pour les modèles Mistral AI. Utilisez ces informations pour effectuer des appels d’inférence aux modèles Mistral AI à l’aide des opérations InvokeModel et InvokeModelWithResponseStream (streaming). Cette section inclut également des exemples de code Python qui montrent comment appeler les modèles Mistral AI. Pour utiliser un modèle dans une opération d’inférence, vous avez besoin de l’ID du modèle. Pour obtenir l’ID du modèle, consultez Modèles de fondation pris en charge dans Amazon Bedrock. Certains modèles fonctionnent également avec l’API Converse. Pour vérifier si l’API Converse prend en charge un modèle Mistral AI spécifique, consultez Modèles et fonctionnalités des modèles pris en charge. Pour plus d’exemples de code, consultez Exemples de code pour Amazon Bedrock utilisant des kits AWS SDK.
Les modèles de fondation d’Amazon Bedrock prennent en charge les modalités d’entrée et de sortie, qui varient d’un modèle à l’autre. Pour vérifier les modalités prises en charge par les modèles Mistral AI, consultez Modèles de fondation pris en charge dans Amazon Bedrock. Pour vérifier quelles fonctionnalités Amazon Bedrock sont prises en charge par les modèles Mistral AI, consultez Modèles de fondation pris en charge dans Amazon Bedrock. Pour vérifier dans quelles régions AWS les modèles Mistral AI sont disponibles, consultez Modèles de fondation pris en charge dans Amazon Bedrock.
Lorsque vous effectuez des appels d’inférence avec les modèles Mistral AI, vous incluez une invite pour le modèle. Pour plus d’informations générales sur la création d’invites pour les modèles pris en charge par Amazon Bedrock, consultez Concepts d’ingénierie de requête. Pour obtenir des informations sur les invites spécifiques Mistral AI, consultez le guide d’ingénierie de requête Mistral AI