本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
API 相容性
Amazon Bedrock 支援三個執行時間 APIs 系列,每個系列都專為不同的整合模式和使用案例而設計。
叫用 系列: InvokeModel處理同步的單一回應呼叫。 會以即時串流的形式InvokeModelWithResponseStream傳回回應。 InvokeModelWithBidirectionalStream 會啟用互動式應用程式的全雙工串流。 會以非同步方式AsyncInvoke提交長時間執行的請求,將輸出儲存到 Amazon S3。
Converse 系列: 為同步多轉對話Converse提供統一、模型無關的界面。 ConverseStream提供串流輸出的相同體驗。
OpenAI 相容系列: ChatCompletions實作 OpenAI 聊天完成介面,讓現有的 OpenAI 型整合能夠在 Bedrock 上執行,且變更最少。 ResponsesAPI 實作 OpenAI 回應界面,支援與內建工具使用和對話歷史記錄管理的狀態代理互動。
現在,我們將查看每個模型支援的 APIs 清單。
AI21
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| Jamba 1.5 Large* |
|
|
|
|
| Jamba 1.5 Mini* |
|
|
|
|
Amazon
Anthropic
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| Claude 3 Haiku* |
|
|
|
|
| Claude 3.5 Haiku* |
|
|
|
|
| Claude Haiku 4.5* |
|
|
|
|
| Claude Opus 4.1* |
|
|
|
|
| Claude Opus 4.5* |
|
|
|
|
| Claude Opus 4.6* |
|
|
|
|
| Claude Sonnet 4* |
|
|
|
|
| Claude Sonnet 4.5* |
|
|
|
|
| Claude Sonnet 4.6* |
|
|
|
|
Cohere
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| Command R* |
|
|
|
|
| Command R+* |
|
|
|
|
| Embed English |
|
|
|
|
| Embed Multilingual |
|
|
|
|
| 內嵌 v4 |
|
|
|
|
| Rerank 3.5 |
|
|
|
|
DeepSeek
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| DeepSeek V3* |
|
|
|
|
| DeepSeek-R1* |
|
|
|
|
| DeepSeek-V3.1* |
|
|
|
|
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| Gemma 3 12B IT* |
|
|
|
|
| Gemma 3 27B PT* |
|
|
|
|
| Gemma 3 4B IT* |
|
|
|
|
Meta
MiniMax
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| MiniMax M2* |
|
|
|
|
| MiniMax M2.1* |
|
|
|
|
| MiniMax M2.5* |
|
|
|
|
Mistral
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| 開發 2 123B* |
|
|
|
|
| Magistral Small 2509* |
|
|
|
|
| Ministral 14B 3.0* |
|
|
|
|
| 最小 3 8B* |
|
|
|
|
| 最小 3B* |
|
|
|
|
| Mistral 7B Instruct* |
|
|
|
|
| Mistral Large* |
|
|
|
|
| Mistral Large 3* |
|
|
|
|
| Mistral Small* |
|
|
|
|
| Mixtral 8x7B Instruct* |
|
|
|
|
| Pixtral Large* |
|
|
|
|
| Voxtral Mini 3B 2507* |
|
|
|
|
| Voxtral 小型 24B 2507* |
|
|
|
|
月亮
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| Kimi K2 思維* |
|
|
|
|
| Kimi K2.5* |
|
|
|
|
NVIDIA
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| NVIDIA Nemotron Nano 9B v2* |
|
|
|
|
| NVIDIA Nemotron Nano 12B v2 VL BF16* |
|
|
|
|
| Nemotron Nano 3 30B* |
|
|
|
|
| NVIDIA Nemotron 3 Super 120B* |
|
|
|
|
OpenAI
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| GPT OSS 保護 120B* |
|
|
|
|
| GPT OSS 保護 20B* |
|
|
|
|
| gpt-oss-120b* |
|
|
|
|
| gpt-oss-20b* |
|
|
|
|
Qwen
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| Qwen3 235B A22B 2507* |
|
|
|
|
| Qwen3 32B* |
|
|
|
|
| Qwen3 Coder 480B A35B 指示* |
|
|
|
|
| Qwen3 Coder 下一步* |
|
|
|
|
| Qwen3 Next 80B A3B* |
|
|
|
|
| Qwen3 VL 235B A22B* |
|
|
|
|
| Qwen3-Coder-30B-A3B-Instruct* |
|
|
|
|
穩定性
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| 穩定的映像保守性擴展 |
|
|
|
|
| 穩定影像控制草圖 |
|
|
|
|
| 穩定影像控制結構 |
|
|
|
|
| 穩定映像 Creative Upscale |
|
|
|
|
| 穩定影像清除物件 |
|
|
|
|
| 穩定的映像快速擴展 |
|
|
|
|
| 穩定映像注入 |
|
|
|
|
| 穩定影像貼圖 |
|
|
|
|
| 穩定影像移除背景 |
|
|
|
|
| 穩定影像搜尋和重新著色 |
|
|
|
|
| 穩定影像搜尋和取代 |
|
|
|
|
| 穩定影像樣式指南 |
|
|
|
|
| 穩定的映像樣式傳輸 |
|
|
|
|
TwelveLabs
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| Marengo 內嵌 3.0 |
|
|
|
|
| Marengo Embed 2.7 版 |
|
|
|
|
| Pegasus 1.2 版 |
|
|
|
|
寫入器
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| Palmyra Vision 7B |
|
|
|
|
| Palmyra X4* |
|
|
|
|
| Palmyra X5* |
|
|
|
|
Z.AI
| 模型名稱 | 調用 | Converse | 聊天完成 | 回應 |
|---|---|---|---|---|
| GLM 4.7* |
|
|
|
|
| GLM 4.7 快閃記憶體* |
|
|
|
|
| GLM 5* |
|
|
|
|
注意
* 串流支援:標記星號 (*) 的模型也支援 InvokeModelWithResponseStream,這會將回應傳回為即時串流。
支援 StartAsyncInvoke 的模型
StartAsyncInvoke 是一種 Amazon Bedrock 執行期 API,可讓發起人提交模型調用請求,並立即收到 invocationArn,而無需等待模型完成處理。任務會在背景執行,一旦完成,輸出就會寫入呼叫者指定的 S3 儲存貯體。然後,來電者可以使用配套 GetAsyncInvoke 和 ListAsyncInvokes APIs輪詢任務狀態。此模式專為涉及大型或延遲不敏感輸入的工作負載而打造,特別是產生視訊、音訊和大量內嵌,其中保持開放同步連線並不切實際。
就支援它的模型而言,下列模型支援 StartAsyncInvoke:
-
TwelveLabs Marengo Embed 2.7 (twelvelabs.marengo-embed-2-7-v1:0) — 視訊和音訊輸入需要;InvokeModel 僅處理文字和影像
-
TwelveLabs Marengo Embed 3.0 (twelvelabs.marengo-embed-3-0-v1:0) — 相同模式;大規模視訊/音訊需要非同步
-
Amazon Nova Reel (amazon.nova-reel-v1:0 和 v1:1) — 影片產生完全非同步;輸出登陸 S3
-
Amazon Nova 多模態內嵌 (amazon.nova-2-multimodal-embeddings-v1:0) — 大於 25MB base64 編碼的視訊輸入需要非同步;同步適用於文字、影像和文件輸入
InvokeModelWithBidirectionalStream
InvokeModelWithBidirectionalStream 是一種 Amazon Bedrock 執行期 API,可在發起人和模型之間建立持久的全雙工通道,允許音訊資料同時且持續地雙向流動。與遵循 request-then-response 模式的標準InvokeModel甚至 InvokeModelWithResponseStream APIs 不同,此 API 會在工作階段期間保持連線開啟,讓模型可以在傳入音訊到達時處理,並近乎即時地將產生的語音串流回去,而無需等待完整的表達用語完成。互動分為三個階段: 工作階段初始化 (用戶端傳送組態事件以設定串流的位置), 音訊串流 (其中擷取的音訊已編碼並做為連續事件串流傳送), 和 回應串流 (其中模型同時傳回使用者語音和合成音訊輸出的文字轉錄)。 InvokeModelWithBidirectionalStream無法與 Amazon Bedrock API 金鑰搭配使用,且需要標準 AWS 憑證型身分驗證。 相較於其他 Bedrock 執行期操作,反映其更複雜的工作階段生命週期。
下列模型支援此 API:
-
Amazon Nova Sonic 系列:amazon.nova-sonic-v1:0 和 amazon.nova-2-sonic-v1:0 都使用它作為其唯一調用路徑,因為speech-to-speech架構基本上需要 InvokeModel 和 Converse 都無法提供的即時雙向通道。