Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Mistral AImodèles
Cette section décrit les paramètres de demande et les champs de réponse pour les Mistral AI modèles. Utilisez ces informations pour effectuer des appels d'inférence vers Mistral AI des modèles avec les opérations InvokeModeland InvokeModelWithResponseStream(streaming). Cette section inclut également des exemples de Python code qui montrent comment appeler Mistral AI des modèles. Pour utiliser un modèle dans une opération d'inférence, vous avez besoin de son identifiant. Pour obtenir l'ID du modèle, voirModèles de fondation pris en charge dans Amazon Bedrock. Certains modèles fonctionnent également avec l'ConverseAPI. Pour vérifier si l'ConverseAPI prend en charge un Mistral AI modèle spécifique, consultezModèles pris en charge et caractéristiques des modèles. Pour plus d'exemples de code, consultezExemples de code pour Amazon Bedrock utilisant AWS SDKs.
Les modèles de base d'Amazon Bedrock prennent en charge les modalités d'entrée et de sortie, qui varient d'un modèle à l'autre. Pour vérifier les modalités prises en charge par Mistral AI les modèles, voirModèles de fondation pris en charge dans Amazon Bedrock. Pour savoir quels Mistral AI modèles Amazon Bedrock sont compatibles, consultezModèles de fondation pris en charge dans Amazon Bedrock. Pour vérifier AWS dans quelles régions les Mistral AI modèles sont disponibles, consultezModèles de fondation pris en charge dans Amazon Bedrock.
Lorsque vous effectuez des appels d'inférence avec Mistral AI des modèles, vous incluez une invite pour le modèle. Pour obtenir des informations générales sur la création d'invites pour les modèles pris en charge par Amazon Bedrock, consultez. Concepts d'ingénierie rapides Pour obtenir Mistral AI des informations spécifiques sur les commandes rapides, consultez le guide d'ingénierie des Mistral AI commandes rapides