Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Compatibilité avec les API
Amazon Bedrock prend en charge trois familles d'environnements d'exécution APIs, chacune étant conçue pour différents modèles d'intégration et différents cas d'utilisation.
Invoke family : InvokeModel gère les appels synchrones à réponse unique. InvokeModelWithResponseStreamrenvoie les réponses sous forme de flux en temps réel. InvokeModelWithBidirectionalStreampermet le streaming en duplex intégral pour les applications interactives. AsyncInvokesoumet des demandes de longue durée de manière asynchrone, en stockant les résultats sur Amazon S3.
Famille Converse : Converse fournit une interface unifiée, indépendante du modèle, pour les conversations synchrones à plusieurs tours. ConverseStreamoffre la même expérience avec la sortie en streaming.
Famille compatible avec OpenAI : implémente ChatCompletions l'interface OpenAI Chat Completions, permettant aux intégrations basées sur OpenAI existantes de fonctionner sur Bedrock avec un minimum de modifications. Responses L'API implémente l'interface OpenAI Responses, qui prend en charge les interactions dynamiques et agentiques grâce à l'utilisation d'outils intégrés et à la gestion de l'historique des conversations.
Nous allons maintenant examiner la liste des modèles APIs pris en charge par chaque modèle.
AI21
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Jamba 1.5 Large* |
|
|
|
|
| Jamba 1.5 Mini* |
|
|
|
|
Amazon
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Intégrations multimodales Amazon Nova |
|
|
|
|
| Nova 2 Lite* |
|
|
|
|
| Nova 2 Sonic |
|
|
|
|
| Nova Canvas |
|
|
|
|
| Nova Lite* |
|
|
|
|
| Nova Micro* |
|
|
|
|
| Nova Premier* |
|
|
|
|
| Nova Pro* |
|
|
|
|
| Nova Reel |
|
|
|
|
| Nova Sonic* |
|
|
|
|
| Titan Embeddings G1 - Text |
|
|
|
|
| Titan Image Generator G1 v2 |
|
|
|
|
| Titan Multimodal Embeddings G1 |
|
|
|
|
| Titan Text Embeddings V2 |
|
|
|
|
| Titan Text Large |
|
|
|
|
Anthropic
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Claude 3 Haiku* |
|
|
|
|
| Claude 3.5 Haiku* |
|
|
|
|
| Claude Haiku 4.5* |
|
|
|
|
| Claude Opus 4.1* |
|
|
|
|
| Claude Opus 4.5* |
|
|
|
|
| Claude Opus 4.6* |
|
|
|
|
| Claude Sonnet 4* |
|
|
|
|
| Claude Sonnet 4.5* |
|
|
|
|
| Claude Sonnet 4.6* |
|
|
|
|
Cohere
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Command R* |
|
|
|
|
| Command R+* |
|
|
|
|
| Embed version anglaise |
|
|
|
|
| Embed version multilingue |
|
|
|
|
| Intégrer v4 |
|
|
|
|
| Rerank 3.5 |
|
|
|
|
DeepSeek
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| DeepSeek V3.2* |
|
|
|
|
| DeepSeek-R1* |
|
|
|
|
| DeepSeek-V3,1* |
|
|
|
|
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Gemma 3 12B IT* |
|
|
|
|
| Gemma 3 27B PT* |
|
|
|
|
| Gemma 3 4B IT* |
|
|
|
|
Meta
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Llama 3 70B Instruct* |
|
|
|
|
| Llama 3 8B Instruct* |
|
|
|
|
| Llama 3.1 405B Instruct |
|
|
|
|
| Llama 3.1 70B Instruct* |
|
|
|
|
| Llama 3.1 8B Instruct* |
|
|
|
|
| Llama 3.2 11B Instruct* |
|
|
|
|
| Llama 3.2 1B Instruct* |
|
|
|
|
| Llama 3.2 3B Instruct* |
|
|
|
|
| Llama 3.2 90B Instruct* |
|
|
|
|
| Llama 3.3 70B Instruct* |
|
|
|
|
| Llama 4 Maverick 17B Instruct* |
|
|
|
|
| Llama 4 Scout 17B Instruct* |
|
|
|
|
MiniMax
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| MiniMax M2* |
|
|
|
|
| MiniMax M2.1* |
|
|
|
|
| MiniMax M2,5* |
|
|
|
|
Mistral
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Devstral 2 123B* |
|
|
|
|
| Magistral Small 2509* |
|
|
|
|
| Ministral 14B 3.0* |
|
|
|
|
| Ministral 3 8B* |
|
|
|
|
| Ministral 3B* |
|
|
|
|
| Mistral 7B Instruct* |
|
|
|
|
| Mistral Large* |
|
|
|
|
| Mistral Large 3* |
|
|
|
|
| Mistral Small* |
|
|
|
|
| Mixtral 8x7B Instruct* |
|
|
|
|
| Pixtral Large* |
|
|
|
|
| Voxtral Mini 3B 2507* |
|
|
|
|
| Voxtral Small 24B 2507* |
|
|
|
|
Coup de lune
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Kimi K2 Thinking* |
|
|
|
|
| Kimi K2,5* |
|
|
|
|
NVIDIA
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| NVIDIA Nemotron Nano 9B v2* |
|
|
|
|
| NVIDIA Nemotron Nano 12B v2 VL BF16* |
|
|
|
|
| Nemotron Nano 3 30B* |
|
|
|
|
| NVIDIA Nemotron 3 Super 120B* |
|
|
|
|
OpenAI
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| GPT OSS Safeguard 120B* |
|
|
|
|
| GPT OSS Safeguard 20B* |
|
|
|
|
| gpt-oss-120b* |
|
|
|
|
| gpt-oss-20b* |
|
|
|
|
Qwen
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Qwen3 235B A2B 2507* |
|
|
|
|
| Qwen3 32B* |
|
|
|
|
| Instruction du codeur Qwen3 480B A35B* |
|
|
|
|
| Codeur Qwen3 Next* |
|
|
|
|
| Qwen3 Next 80B A3B* |
|
|
|
|
| Qwen3 VL 235B A2B* |
|
|
|
|
| Qwen3-Coder-30B-A3B-Instruct* |
|
|
|
|
Stabilité
TwelveLabs
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Marengo Intégrer 3.0 |
|
|
|
|
| Marengo Embed v2.7 |
|
|
|
|
| Pegasus v1.2 |
|
|
|
|
Writer
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| Palmyra Vision 7B |
|
|
|
|
| Palmyra X4* |
|
|
|
|
| Palmyra X5* |
|
|
|
|
Z.AI
| Nom du modèle | Invocation | Converse | Achèvement du chat | Réponses |
|---|---|---|---|---|
| GLM 4.7* |
|
|
|
|
| Flash GLM 4.7* |
|
|
|
|
| GLM 5* |
|
|
|
|
Note
* Support du streaming : les modèles marqués d'un astérisque (*) sont également compatiblesInvokeModelWithResponseStream, ce qui renvoie les réponses sous forme de flux en temps réel.
Modèles supportant StartAsyncInvoke
StartAsyncInvoke est une API Amazon Bedrock Runtime qui permet aux appelants de soumettre un modèle de demande d'invocation et de recevoir immédiatement un InvocationArn sans attendre la fin du traitement du modèle. La tâche s'exécute en arrière-plan et le résultat est écrit dans un compartiment S3 spécifié par l'appelant une fois terminé. Les appelants peuvent ensuite demander l'état du poste à l'aide du compagnon GetAsyncInvoke et ListAsyncInvokes APIs. Le modèle est spécialement conçu pour les charges de travail impliquant des entrées volumineuses ou insensibles à la latence, en particulier la vidéo, le son et la génération d'intégrations en masse, pour lesquelles il serait peu pratique de maintenir une connexion synchrone ouverte.
En ce qui concerne les modèles compatibles, les modèles suivants le prennent en charge StartAsyncInvoke :
-
TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v 1:0) — nécessaire pour les entrées vidéo et audio ; ne gère que le texte et les images InvokeModel
-
TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v 1:0) — même modèle ; async requis pour at scale video/audio
-
Amazon Nova Reel (Amazon). nova-reel-v1:0 et v 1:1) : la génération de vidéos est exclusivement asynchrone ; la sortie atterrit dans S3
-
Amazon Nova Multimodal Embeddings (amazon.nova-2- multimodal-embeddings-v 1:0) : l'async est requis pour les entrées vidéo de plus de 25 Mo codées en base64 ; la synchronisation est disponible pour les entrées de texte, d'image et de document
InvokeModelWithBidirectionalStream
InvokeModelWithBidirectionalStreamest une API Amazon Bedrock Runtime qui établit un canal permanent en duplex intégral entre l'appelant et le modèle, permettant aux données audio de circuler dans les deux sens simultanément et en continu. Contrairement à la norme InvokeModel ou même InvokeModelWithResponseStream APIs, qui suivent un request-then-response modèle, cette API maintient la connexion ouverte pendant toute la durée d'une session afin que le modèle puisse traiter le son entrant à son arrivée et diffuser le discours généré en temps quasi réel, sans attendre la fin d'un énoncé complet. L'interaction est structurée autour de trois phases : l'initialisation de la session (où le client envoie des événements de configuration pour configurer le flux), le streaming audio (où le son capturé est codé et envoyé sous forme de flux d'événements continu) et le streaming des réponses (où le modèle renvoie simultanément des transcriptions textuelles du discours de l'utilisateur et une sortie audio synthétisée). InvokeModelWithBidirectionalStreamne peut pas être utilisé avec les clés d'API Amazon Bedrock et nécessite une authentification standard basée sur les informations d'identification AWS, ce qui reflète son cycle de vie de session plus complexe par rapport aux autres opérations de Bedrock Runtime.
Les modèles suivants prennent en charge cette API :
-
Famille Amazon Nova Sonic : Les deux Amazon. nova-sonic-v1:0 et amazon.nova-2-sonic-v 1:0 l'utilisent comme seule voie d'invocation, car l' speech-to-speecharchitecture nécessite fondamentalement un canal bidirectionnel en direct que ni Converse ne peuvent fournir. InvokeModel