View a markdown version of this page

API-Kompatibilität - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

API-Kompatibilität

Amazon Bedrock unterstützt drei Runtime-Familien APIs, die jeweils für unterschiedliche Integrationsmuster und Anwendungsfälle konzipiert sind.

Invoke-Familie: InvokeModel verarbeitet synchrone Anrufe mit einer einzigen Antwort. InvokeModelWithResponseStreamgibt Antworten als Echtzeit-Stream zurück. InvokeModelWithBidirectionalStreamermöglicht Vollduplex-Streaming für interaktive Anwendungen. AsyncInvokesendet Anfragen mit langer Laufzeit asynchron und speichert die Ausgabe in Amazon S3.

Converse-Produktreihe: Converse bietet eine einheitliche, modellunabhängige Schnittstelle für synchrone Multi-Turn-Konversationen. ConverseStreambietet dasselbe Erlebnis bei der Streaming-Ausgabe.

OpenAI-kompatible Familie: ChatCompletions implementiert die OpenAI Chat Completions-Schnittstelle, sodass bestehende OpenAI-basierte Integrationen mit minimalen Änderungen auf Bedrock ausgeführt werden können. Responses Die API implementiert die OpenAI Response-Schnittstelle und unterstützt statusbehaftete, agentische Interaktionen mit integrierter Toolnutzung und Verwaltung des Konversationsverlaufs.

Wir werden uns nun die Liste der von den einzelnen Modellen APIs unterstützten Modelle ansehen.

AI21

Modellname Invoke Converse Chat-Abschlüsse Antworten
Jamba 1.5 Large* Yes Yes No No
Jamba 1.5 Mini* Yes Yes No No

Amazon

Anthropic

Cohere

Modellname Invoke Converse Chat-Abschlüsse Antworten
Command R* Yes Yes No No
Command R+* Yes Yes No No
Embed English Yes No No No
Embed Multilingual Yes No No No
v4 einbetten Yes No No No
Rerank 3.5 Yes No No No

DeepSeek

Modellname Invoke Converse Chat-Abschlüsse Antworten
DeepSeek V3.2* Yes Yes Yes No
DeepSeek-R1* Yes Yes No No
DeepSeek-V 3.1* Yes Yes Yes No

Google

Modellname Invoke Converse Chat-Abschlüsse Antworten
Gemma 3 12B IT* Yes Yes Yes No
Gemma 3 27B PT* Yes Yes Yes No
Gemma 3 4B IT* Yes Yes Yes No

Meta

MiniMax

Modellname Invoke Converse Chat-Abschlüsse Antworten
MiniMax M2* Yes Yes Yes No
MiniMax M2,1* Yes Yes Yes No
MiniMax M2,5* Yes Yes Yes No

Mistral

Mondschuss

Modellname Invoke Converse Chat-Abschlüsse Antworten
Kimi K2 denkt* Yes Yes No No
Kimi K2,5* Yes Yes Yes No

NVIDIA

OpenAI

Modellname Invoke Converse Chat-Abschlüsse Antworten
GPT OSS Safeguard 120B* Yes Yes Yes Yes
GPT OSS Safeguard 20B* Yes Yes Yes Yes
gpt-oss-120b* Yes Yes Yes Yes
gpt-oss-20b* Yes Yes Yes Yes

Qwen

Stabilität

TwelveLabs

Modellname Invoke Converse Chat-Abschlüsse Antworten
Marengo Embed 3.0 Yes No No No
Marengo Embed v2.7 No No No No
Pegasus v1.2 Yes No No No

Writer

Modellname Invoke Converse Chat-Abschlüsse Antworten
Palmyra Vision 7 B Yes Yes Yes No
Palmyra X4* Yes Yes No No
Palmyra X5* Yes Yes No No

Z.AI

Modellname Invoke Converse Chat-Abschlüsse Antworten
GLM 4,7* Yes Yes Yes No
GLM 4.7 Flash* Yes Yes Yes No
GLM 5* Yes Yes Yes No
Anmerkung

* Streaming-Unterstützung: Modelle, die mit einem Sternchen (*) gekennzeichnet sindInvokeModelWithResponseStream, unterstützen ebenfalls, sodass Antworten als Echtzeit-Stream zurückgegeben werden.

Unterstützende Modelle StartAsyncInvoke

StartAsyncInvoke ist eine Amazon Bedrock Runtime-API, die es Aufrufern ermöglicht, eine Modellaufrufanforderung einzureichen und sofort einen InvocationARN zurückzuerhalten, ohne darauf warten zu müssen, dass das Modell die Verarbeitung abgeschlossen hat. Der Job wird im Hintergrund ausgeführt, und die Ausgabe wird nach Abschluss in einen vom Aufrufer angegebenen S3-Bucket geschrieben. Anrufer können dann den Auftragsstatus mithilfe des Begleitprogramms und abfragen. GetAsyncInvoke ListAsyncInvokes APIs Das Muster wurde speziell für Workloads mit großen oder latenzunempfindlichen Eingaben entwickelt, insbesondere bei der Generierung von Video-, Audio- und Masseneinbettungen, bei denen es unpraktisch wäre, eine offene synchrone Verbindung aufrechtzuerhalten.

In Bezug darauf, welche Modelle es unterstützen, unterstützen die folgenden Modelle: StartAsyncInvoke

  • TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v 1:0) — erforderlich für die Video- und Audioeingabe; verarbeitet nur Text und Bild InvokeModel

  • TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v 1:0) — gleiches Muster; asynchron erforderlich für at scale video/audio

  • Amazon Nova Reel (Amazon). nova-reel-v1:0 und v 1:1) — Die Videogenerierung erfolgt ausschließlich asynchron; die Ausgabe landet in S3

  • Amazon Nova Multimodal Embeddings (amazon.nova-2- multimodal-embeddings-v 1:0) — Async ist für Base64-codierte Videoeingänge mit mehr als 25 MB erforderlich; Sync ist für Text-, Bild- und Dokumenteingaben verfügbar

InvokeModelWithBidirectionalStream

InvokeModelWithBidirectionalStreamist eine Amazon Bedrock Runtime-API, die einen dauerhaften Vollduplex-Kanal zwischen dem Anrufer und dem Modell einrichtet, sodass Audiodaten gleichzeitig und kontinuierlich in beide Richtungen fließen können. Im Gegensatz zu InvokeModel Standard-APIs InvokeModelWithResponseStream APIs, die einem request-then-response Muster folgen, hält diese API die Verbindung für die Dauer einer Sitzung offen, sodass das Modell eingehende Audiodaten verarbeiten und generierte Sprache nahezu in Echtzeit zurückstreamen kann, ohne auf den Abschluss einer vollständigen Äußerung warten zu müssen. Die Interaktion ist in drei Phasen gegliedert: Sitzungsinitialisierung (bei der der Client Konfigurationsereignisse sendet, um den Stream einzurichten), Audiostreaming (bei dem das aufgenommene Audio codiert und als kontinuierlicher Ereignisstream gesendet wird) und Antwortstreaming (bei dem das Modell gleichzeitig Texttranskriptionen der Benutzersprache und synthetisierte Audioausgabe zurückgibt). InvokeModelWithBidirectionalStreamkann nicht mit Amazon Bedrock API-Schlüsseln verwendet werden und erfordert eine standardmäßige AWS-Authentifizierung auf Basis von Anmeldeinformationen, was den komplexeren Sitzungslebenszyklus im Vergleich zu anderen Bedrock Runtime-Vorgängen widerspiegelt.

Die folgenden Modelle unterstützen diese API:

  • Amazon Nova Sonic-Familie: Beide Amazon. nova-sonic-v1:0 und amazon.nova-2-sonic-v 1:0 verwenden ihn als einzigen Aufrufpfad, da die speech-to-speech Architektur grundsätzlich einen bidirektionalen Live-Kanal benötigt, den weder Converse noch Converse bereitstellen können. InvokeModel