Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
API-Kompatibilität
Amazon Bedrock unterstützt drei Runtime-Familien APIs, die jeweils für unterschiedliche Integrationsmuster und Anwendungsfälle konzipiert sind.
Invoke-Familie: InvokeModel verarbeitet synchrone Anrufe mit einer einzigen Antwort. InvokeModelWithResponseStreamgibt Antworten als Echtzeit-Stream zurück. InvokeModelWithBidirectionalStreamermöglicht Vollduplex-Streaming für interaktive Anwendungen. AsyncInvokesendet Anfragen mit langer Laufzeit asynchron und speichert die Ausgabe in Amazon S3.
Converse-Produktreihe: Converse bietet eine einheitliche, modellunabhängige Schnittstelle für synchrone Multi-Turn-Konversationen. ConverseStreambietet dasselbe Erlebnis bei der Streaming-Ausgabe.
OpenAI-kompatible Familie: ChatCompletions implementiert die OpenAI Chat Completions-Schnittstelle, sodass bestehende OpenAI-basierte Integrationen mit minimalen Änderungen auf Bedrock ausgeführt werden können. Responses Die API implementiert die OpenAI Response-Schnittstelle und unterstützt statusbehaftete, agentische Interaktionen mit integrierter Toolnutzung und Verwaltung des Konversationsverlaufs.
Wir werden uns nun die Liste der von den einzelnen Modellen APIs unterstützten Modelle ansehen.
AI21
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Jamba 1.5 Large* |
|
|
|
|
| Jamba 1.5 Mini* |
|
|
|
|
Amazon
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Multimodale Einbettungen von Amazon Nova |
|
|
|
|
| Nova 2 Lite* |
|
|
|
|
| Nova 2 Sonic |
|
|
|
|
| Nova Canvas |
|
|
|
|
| Nova Lite* |
|
|
|
|
| Nova Micro* |
|
|
|
|
| Nova Premier* |
|
|
|
|
| Nova Pro* |
|
|
|
|
| Nova Reel |
|
|
|
|
| Nova Sonic* |
|
|
|
|
| Titan Embeddings G1 – Text |
|
|
|
|
| Titan Image Generator G1 v2 |
|
|
|
|
| Titan Multimodal Embeddings G1 |
|
|
|
|
| Titan Text Embeddings V2 |
|
|
|
|
| Titan Text Groß |
|
|
|
|
Anthropic
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Claude 3 Haiku* |
|
|
|
|
| Claude 3.5 Haiku* |
|
|
|
|
| Claude Haiku 4.5* |
|
|
|
|
| Claude Opus 4.1* |
|
|
|
|
| Claude Opus 4.5* |
|
|
|
|
| Claude Opus 4,6* |
|
|
|
|
| Claude Sonnet 4* |
|
|
|
|
| Claude Sonett 4.5* |
|
|
|
|
| Claude Sonett 4.6* |
|
|
|
|
Cohere
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Command R* |
|
|
|
|
| Command R+* |
|
|
|
|
| Embed English |
|
|
|
|
| Embed Multilingual |
|
|
|
|
| v4 einbetten |
|
|
|
|
| Rerank 3.5 |
|
|
|
|
DeepSeek
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| DeepSeek V3.2* |
|
|
|
|
| DeepSeek-R1* |
|
|
|
|
| DeepSeek-V 3.1* |
|
|
|
|
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Gemma 3 12B IT* |
|
|
|
|
| Gemma 3 27B PT* |
|
|
|
|
| Gemma 3 4B IT* |
|
|
|
|
Meta
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Llama 3 70B Instruct* |
|
|
|
|
| Llama 3 8B Instruct* |
|
|
|
|
| Llama 3.1 405B Instruct |
|
|
|
|
| Llama 3.1 70B Instruct* |
|
|
|
|
| Llama 3,1 8B Instruct* |
|
|
|
|
| Llama 3.2 11B Instruct* |
|
|
|
|
| Llama 3.2 1B Instruct* |
|
|
|
|
| Llama 3.2 3B Instruct* |
|
|
|
|
| Llama 3.2 90B Instruct* |
|
|
|
|
| Llama 3.3 70B Instruct* |
|
|
|
|
| Llama 4 Maverick 17B Instruct* |
|
|
|
|
| Llama 4 Scout 17B Instruct* |
|
|
|
|
MiniMax
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| MiniMax M2* |
|
|
|
|
| MiniMax M2,1* |
|
|
|
|
| MiniMax M2,5* |
|
|
|
|
Mistral
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Destral 2 123B* |
|
|
|
|
| Magistral Klein 2509* |
|
|
|
|
| Ministry 14B 3.0* |
|
|
|
|
| Ministry 3 8B* |
|
|
|
|
| Minister 3B* |
|
|
|
|
| Mistral 7B Instruct* |
|
|
|
|
| Mistral Large* |
|
|
|
|
| Mistral Large 3* |
|
|
|
|
| Mistral Klein* |
|
|
|
|
| Mixtral 8x7B Instruct* |
|
|
|
|
| Pixtral Large* |
|
|
|
|
| Voxtral Mini 3B 2507* |
|
|
|
|
| Voxtral Small 24V 2507* |
|
|
|
|
Mondschuss
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Kimi K2 denkt* |
|
|
|
|
| Kimi K2,5* |
|
|
|
|
NVIDIA
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| NVIDIA Nemotron Nano 9B v2* |
|
|
|
|
| NVIDIA Nemotron Nano 12B v2 VL BF16* |
|
|
|
|
| Nemotron Nano 3 30B* |
|
|
|
|
| NVIDIA Nemotron 3 Super 120 B* |
|
|
|
|
OpenAI
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| GPT OSS Safeguard 120B* |
|
|
|
|
| GPT OSS Safeguard 20B* |
|
|
|
|
| gpt-oss-120b* |
|
|
|
|
| gpt-oss-20b* |
|
|
|
|
Qwen
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Qwen3 235B A22B 2507* |
|
|
|
|
| Qwen3 32B* |
|
|
|
|
| Qwen3 Coder 480B A35B Instruktor* |
|
|
|
|
| Qwen3 Coder Weiter* |
|
|
|
|
| Qwen3 Next 80B A3B* |
|
|
|
|
| Qwen3 VL 235 B A22B* |
|
|
|
|
| Qwen3-Coder-30B-A3B-Anleitung* |
|
|
|
|
Stabilität
TwelveLabs
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Marengo Embed 3.0 |
|
|
|
|
| Marengo Embed v2.7 |
|
|
|
|
| Pegasus v1.2 |
|
|
|
|
Writer
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| Palmyra Vision 7 B |
|
|
|
|
| Palmyra X4* |
|
|
|
|
| Palmyra X5* |
|
|
|
|
Z.AI
| Modellname | Invoke | Converse | Chat-Abschlüsse | Antworten |
|---|---|---|---|---|
| GLM 4,7* |
|
|
|
|
| GLM 4.7 Flash* |
|
|
|
|
| GLM 5* |
|
|
|
|
Anmerkung
* Streaming-Unterstützung: Modelle, die mit einem Sternchen (*) gekennzeichnet sindInvokeModelWithResponseStream, unterstützen ebenfalls, sodass Antworten als Echtzeit-Stream zurückgegeben werden.
Unterstützende Modelle StartAsyncInvoke
StartAsyncInvoke ist eine Amazon Bedrock Runtime-API, die es Aufrufern ermöglicht, eine Modellaufrufanforderung einzureichen und sofort einen InvocationARN zurückzuerhalten, ohne darauf warten zu müssen, dass das Modell die Verarbeitung abgeschlossen hat. Der Job wird im Hintergrund ausgeführt, und die Ausgabe wird nach Abschluss in einen vom Aufrufer angegebenen S3-Bucket geschrieben. Anrufer können dann den Auftragsstatus mithilfe des Begleitprogramms und abfragen. GetAsyncInvoke ListAsyncInvokes APIs Das Muster wurde speziell für Workloads mit großen oder latenzunempfindlichen Eingaben entwickelt, insbesondere bei der Generierung von Video-, Audio- und Masseneinbettungen, bei denen es unpraktisch wäre, eine offene synchrone Verbindung aufrechtzuerhalten.
In Bezug darauf, welche Modelle es unterstützen, unterstützen die folgenden Modelle: StartAsyncInvoke
-
TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v 1:0) — erforderlich für die Video- und Audioeingabe; verarbeitet nur Text und Bild InvokeModel
-
TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v 1:0) — gleiches Muster; asynchron erforderlich für at scale video/audio
-
Amazon Nova Reel (Amazon). nova-reel-v1:0 und v 1:1) — Die Videogenerierung erfolgt ausschließlich asynchron; die Ausgabe landet in S3
-
Amazon Nova Multimodal Embeddings (amazon.nova-2- multimodal-embeddings-v 1:0) — Async ist für Base64-codierte Videoeingänge mit mehr als 25 MB erforderlich; Sync ist für Text-, Bild- und Dokumenteingaben verfügbar
InvokeModelWithBidirectionalStream
InvokeModelWithBidirectionalStreamist eine Amazon Bedrock Runtime-API, die einen dauerhaften Vollduplex-Kanal zwischen dem Anrufer und dem Modell einrichtet, sodass Audiodaten gleichzeitig und kontinuierlich in beide Richtungen fließen können. Im Gegensatz zu InvokeModel Standard-APIs InvokeModelWithResponseStream APIs, die einem request-then-response Muster folgen, hält diese API die Verbindung für die Dauer einer Sitzung offen, sodass das Modell eingehende Audiodaten verarbeiten und generierte Sprache nahezu in Echtzeit zurückstreamen kann, ohne auf den Abschluss einer vollständigen Äußerung warten zu müssen. Die Interaktion ist in drei Phasen gegliedert: Sitzungsinitialisierung (bei der der Client Konfigurationsereignisse sendet, um den Stream einzurichten), Audiostreaming (bei dem das aufgenommene Audio codiert und als kontinuierlicher Ereignisstream gesendet wird) und Antwortstreaming (bei dem das Modell gleichzeitig Texttranskriptionen der Benutzersprache und synthetisierte Audioausgabe zurückgibt). InvokeModelWithBidirectionalStreamkann nicht mit Amazon Bedrock API-Schlüsseln verwendet werden und erfordert eine standardmäßige AWS-Authentifizierung auf Basis von Anmeldeinformationen, was den komplexeren Sitzungslebenszyklus im Vergleich zu anderen Bedrock Runtime-Vorgängen widerspiegelt.
Die folgenden Modelle unterstützen diese API:
-
Amazon Nova Sonic-Familie: Beide Amazon. nova-sonic-v1:0 und amazon.nova-2-sonic-v 1:0 verwenden ihn als einzigen Aufrufpfad, da die speech-to-speech Architektur grundsätzlich einen bidirektionalen Live-Kanal benötigt, den weder Converse noch Converse bereitstellen können. InvokeModel