View a markdown version of this page

Compatibilité avec les API - Amazon Bedrock

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

Compatibilité avec les API

Amazon Bedrock prend en charge trois familles d'environnements d'exécution APIs, chacune étant conçue pour différents modèles d'intégration et différents cas d'utilisation.

Invoke family : InvokeModel gère les appels synchrones à réponse unique. InvokeModelWithResponseStreamrenvoie les réponses sous forme de flux en temps réel. InvokeModelWithBidirectionalStreampermet le streaming en duplex intégral pour les applications interactives. AsyncInvokesoumet des demandes de longue durée de manière asynchrone, en stockant les résultats sur Amazon S3.

Famille Converse : Converse fournit une interface unifiée, indépendante du modèle, pour les conversations synchrones à plusieurs tours. ConverseStreamoffre la même expérience avec la sortie en streaming.

Famille compatible avec OpenAI : implémente ChatCompletions l'interface OpenAI Chat Completions, permettant aux intégrations basées sur OpenAI existantes de fonctionner sur Bedrock avec un minimum de modifications. Responses L'API implémente l'interface OpenAI Responses, qui prend en charge les interactions dynamiques et agentiques grâce à l'utilisation d'outils intégrés et à la gestion de l'historique des conversations.

Nous allons maintenant examiner la liste des modèles APIs pris en charge par chaque modèle.

AI21

Nom du modèle Invocation Converse Achèvement du chat Réponses
Jamba 1.5 Large* Yes Yes No No
Jamba 1.5 Mini* Yes Yes No No

Amazon

Anthropic

Cohere

Nom du modèle Invocation Converse Achèvement du chat Réponses
Command R* Yes Yes No No
Command R+* Yes Yes No No
Embed version anglaise Yes No No No
Embed version multilingue Yes No No No
Intégrer v4 Yes No No No
Rerank 3.5 Yes No No No

DeepSeek

Nom du modèle Invocation Converse Achèvement du chat Réponses
DeepSeek V3.2* Yes Yes Yes No
DeepSeek-R1* Yes Yes No No
DeepSeek-V3,1* Yes Yes Yes No

Google

Nom du modèle Invocation Converse Achèvement du chat Réponses
Gemma 3 12B IT* Yes Yes Yes No
Gemma 3 27B PT* Yes Yes Yes No
Gemma 3 4B IT* Yes Yes Yes No

Meta

MiniMax

Nom du modèle Invocation Converse Achèvement du chat Réponses
MiniMax M2* Yes Yes Yes No
MiniMax M2.1* Yes Yes Yes No
MiniMax M2,5* Yes Yes Yes No

Mistral

Coup de lune

Nom du modèle Invocation Converse Achèvement du chat Réponses
Kimi K2 Thinking* Yes Yes No No
Kimi K2,5* Yes Yes Yes No

NVIDIA

Nom du modèle Invocation Converse Achèvement du chat Réponses
NVIDIA Nemotron Nano 9B v2* Yes Yes Yes No
NVIDIA Nemotron Nano 12B v2 VL BF16* Yes Yes Yes No
Nemotron Nano 3 30B* Yes Yes Yes No
NVIDIA Nemotron 3 Super 120B* Yes Yes Yes No

OpenAI

Nom du modèle Invocation Converse Achèvement du chat Réponses
GPT OSS Safeguard 120B* Yes Yes Yes Yes
GPT OSS Safeguard 20B* Yes Yes Yes Yes
gpt-oss-120b* Yes Yes Yes Yes
gpt-oss-20b* Yes Yes Yes Yes

Qwen

Stabilité

TwelveLabs

Nom du modèle Invocation Converse Achèvement du chat Réponses
Marengo Intégrer 3.0 Yes No No No
Marengo Embed v2.7 No No No No
Pegasus v1.2 Yes No No No

Writer

Nom du modèle Invocation Converse Achèvement du chat Réponses
Palmyra Vision 7B Yes Yes Yes No
Palmyra X4* Yes Yes No No
Palmyra X5* Yes Yes No No

Z.AI

Nom du modèle Invocation Converse Achèvement du chat Réponses
GLM 4.7* Yes Yes Yes No
Flash GLM 4.7* Yes Yes Yes No
GLM 5* Yes Yes Yes No
Note

* Support du streaming : les modèles marqués d'un astérisque (*) sont également compatiblesInvokeModelWithResponseStream, ce qui renvoie les réponses sous forme de flux en temps réel.

Modèles supportant StartAsyncInvoke

StartAsyncInvoke est une API Amazon Bedrock Runtime qui permet aux appelants de soumettre un modèle de demande d'invocation et de recevoir immédiatement un InvocationArn sans attendre la fin du traitement du modèle. La tâche s'exécute en arrière-plan et le résultat est écrit dans un compartiment S3 spécifié par l'appelant une fois terminé. Les appelants peuvent ensuite demander l'état du poste à l'aide du compagnon GetAsyncInvoke et ListAsyncInvokes APIs. Le modèle est spécialement conçu pour les charges de travail impliquant des entrées volumineuses ou insensibles à la latence, en particulier la vidéo, le son et la génération d'intégrations en masse, pour lesquelles il serait peu pratique de maintenir une connexion synchrone ouverte.

En ce qui concerne les modèles compatibles, les modèles suivants le prennent en charge StartAsyncInvoke :

  • TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v 1:0) — nécessaire pour les entrées vidéo et audio ; ne gère que le texte et les images InvokeModel

  • TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v 1:0) — même modèle ; async requis pour at scale video/audio

  • Amazon Nova Reel (Amazon). nova-reel-v1:0 et v 1:1) : la génération de vidéos est exclusivement asynchrone ; la sortie atterrit dans S3

  • Amazon Nova Multimodal Embeddings (amazon.nova-2- multimodal-embeddings-v 1:0) : l'async est requis pour les entrées vidéo de plus de 25 Mo codées en base64 ; la synchronisation est disponible pour les entrées de texte, d'image et de document

InvokeModelWithBidirectionalStream

InvokeModelWithBidirectionalStreamest une API Amazon Bedrock Runtime qui établit un canal permanent en duplex intégral entre l'appelant et le modèle, permettant aux données audio de circuler dans les deux sens simultanément et en continu. Contrairement à la norme InvokeModel ou même InvokeModelWithResponseStream APIs, qui suivent un request-then-response modèle, cette API maintient la connexion ouverte pendant toute la durée d'une session afin que le modèle puisse traiter le son entrant à son arrivée et diffuser le discours généré en temps quasi réel, sans attendre la fin d'un énoncé complet. L'interaction est structurée autour de trois phases : l'initialisation de la session (où le client envoie des événements de configuration pour configurer le flux), le streaming audio (où le son capturé est codé et envoyé sous forme de flux d'événements continu) et le streaming des réponses (où le modèle renvoie simultanément des transcriptions textuelles du discours de l'utilisateur et une sortie audio synthétisée). InvokeModelWithBidirectionalStreamne peut pas être utilisé avec les clés d'API Amazon Bedrock et nécessite une authentification standard basée sur les informations d'identification AWS, ce qui reflète son cycle de vie de session plus complexe par rapport aux autres opérations de Bedrock Runtime.

Les modèles suivants prennent en charge cette API :

  • Famille Amazon Nova Sonic : Les deux Amazon. nova-sonic-v1:0 et amazon.nova-2-sonic-v 1:0 l'utilisent comme seule voie d'invocation, car l' speech-to-speecharchitecture nécessite fondamentalement un canal bidirectionnel en direct que ni Converse ne peuvent fournir. InvokeModel