

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Soumission des invites et génération des réponses à l’aide de l’API
<a name="inference-api"></a>

Amazon Bedrock propose les opérations d’API suivantes pour effectuer l’inférence de modèles :
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)— Soumettez une invite et générez une réponse. Le corps de la demande est spécifique au modèle. Pour générer des réponses en streaming, utilisez [InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html).
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) : envoyez une invite et générez des réponses avec une structure unifiée pour tous les modèles. Les champs de demande spécifiques au modèle peuvent être spécifiés dans le champ `additionalModelRequestFields`. Vous pouvez également inclure les invites du système et les conversations précédentes pour le contexte. Pour générer des réponses en streaming, utilisez [ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html).
+ [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html)— Soumettez une invite et générez une réponse de manière asynchrone qui pourra être récupérée ultérieurement. Utilisé pour générer des vidéos.
+ [InvokeModelWithBidirectionalStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithBidirectionalStream.html) – 
+ API OpenAI Chat Completions : utilisez l’[API OpenAI Chat Completions](https://platform.openai.com/docs/api-reference/chat/create) avec les modèles pris en charge par Amazon Bedrock pour générer une réponse.

**Note**  
Des restrictions s'appliquent aux opérations suivantes : `InvokeModel``InvokeModelWithResponseStream`,`Converse`, et`ConverseStream`. Consultez les [restrictions relatives aux API](inference-api-restrictions.md) pour plus de détails.

Pour l’inférence de modèle, vous devez déterminer les paramètres suivants :
+ ID de modèle : ID ou Amazon Resource Name (ARN) du modèle ou du profil d’inférence à utiliser dans le champ `modelId` pour l’inférence. Le tableau suivant décrit comment IDs rechercher différents types de ressources :  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/inference-api.html)
+ Corps de la demande : contient les paramètres d’inférence pour un modèle et d’autres configurations. Chaque modèle de base possède son propre ensemble de paramètres d’inférence. Les paramètres d’inférence d’un modèle personnalisé ou provisionné dépendent du modèle de base à partir duquel il a été créé. Pour de plus amples informations, veuillez consulter [Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation](model-parameters.md).

Sélectionnez une rubrique pour savoir comment utiliser le modèle d'invocation APIs.

**Topics**
+ [Soumettez une seule invite avec InvokeModel](inference-invoke.md)
+ [Invocation d’un modèle avec l’API OpenAI Chat Completions](inference-chat-completions.md)
+ [Mener une conversation avec les opérations d’API Converse](conversation-inference.md)
+ [Restrictions d'API](inference-api-restrictions.md)