本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
API 兼容性
Amazon Bedrock 支持三个运行时系列 APIs,每个系列都针对不同的集成模式和用例而设计。
调用家族:InvokeModel处理同步的单响应呼叫。 InvokeModelWithResponseStream以实时流的形式返回响应。 InvokeModelWithBidirectionalStream为交互式应用程序启用全双工流式传输。 AsyncInvoke异步提交长时间运行的请求,将输出存储到 Amazon S3。
Converse 系列:Converse为同步多回合对话提供统一的、与模型无关的接口。 ConverseStream通过流媒体输出提供相同的体验。
兼容 OpenAI 的系列:ChatCompletions实现 OpenAI 聊天完成接口,使现有的基于 OpenAI 的集成只需最少的更改即可在 Bedrock 上运行。 ResponsesAPI 实现了 OpenAI Responses 接口,通过内置工具使用和对话历史记录管理支持有状态的代理互动。
现在,我们将查看每种型号 APIs 支持的列表。
AI21
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Jamba 1.5 Large* |
|
|
|
|
| Jamba 1.5 Mini* |
|
|
|
|
Amazon
Anthropic
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Claude 3 Haiku* |
|
|
|
|
| Claude 3.5 Haiku* |
|
|
|
|
| Claude Haiku 4.5* |
|
|
|
|
| Claude Opus 4.1* |
|
|
|
|
| 克劳德作品 4.5* |
|
|
|
|
| 克劳德作品 4.6* |
|
|
|
|
| Claude Sonnet 4* |
|
|
|
|
| 克劳德·十四行诗 4.5* |
|
|
|
|
| 克劳德·十四行诗 4.6* |
|
|
|
|
Cohere
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Command R* |
|
|
|
|
| Command R+* |
|
|
|
|
| Embed(英文版) |
|
|
|
|
| Embed(多语版) |
|
|
|
|
| 嵌入 v4 |
|
|
|
|
| Rerank 3.5 |
|
|
|
|
DeepSeek
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| DeepSeek V3.2* |
|
|
|
|
| DeepSeek-R1* |
|
|
|
|
| DeepSeek-V3.1* |
|
|
|
|
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Gemma 3 12B IT* |
|
|
|
|
| Gemma 3 27B PT* |
|
|
|
|
| Gemma 3 4B IT* |
|
|
|
|
Meta
MiniMax
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| MiniMax M2* |
|
|
|
|
| MiniMax M2.1* |
|
|
|
|
| MiniMax M2.5* |
|
|
|
|
Mistral
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Devstral 2 123B* |
|
|
|
|
| Magistral 小号 2509* |
|
|
|
|
| Ministral 14B 3.0* |
|
|
|
|
| Ministral 3 8B* |
|
|
|
|
| Ministral 3B* |
|
|
|
|
| Mistral 7B Instruct* |
|
|
|
|
| Mistral 大号* |
|
|
|
|
| Mistral 大号 3* |
|
|
|
|
| Mistral 小号* |
|
|
|
|
| Mixtral 8x7B Instruct* |
|
|
|
|
| Pixtral Large* |
|
|
|
|
| Voxtral Mini 3B 2507* |
|
|
|
|
| Voxtral Small 24B 2507* |
|
|
|
|
登月射击
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Kimi K2 Thinking* |
|
|
|
|
| Kimi K2.5* |
|
|
|
|
NVIDIA
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| NVIDIA Nemotron Nano 9B v2* |
|
|
|
|
| NVIDIA Nemotron Nano 12B v2 VL BF16* |
|
|
|
|
| Nemotron Nano 3 30B* |
|
|
|
|
| 英伟达 Nemotron 3 Super 120B* |
|
|
|
|
OpenAI
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| GPT OSS Safeguard* |
|
|
|
|
| GPT OSS Safeguard* |
|
|
|
|
| gpt-oss-120b* |
|
|
|
|
| gpt-oss-20b* |
|
|
|
|
Qwen
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Qwen3 235B A22B 2507* |
|
|
|
|
| Qwen3 32B* |
|
|
|
|
| Qwen3 Coder 480B A35B Instruct* |
|
|
|
|
| Qwen3 Coder 下一篇* |
|
|
|
|
| Qwen3 Next 80B A3B* |
|
|
|
|
| Qwen3 VL 235B A2B* |
|
|
|
|
| Qwen3-Coder-30B-A3B-Instruct* |
|
|
|
|
稳定性
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| 稳定的图像保守高档 |
|
|
|
|
| 稳定的图像控制草图 |
|
|
|
|
| 稳定的图像控制结构 |
|
|
|
|
| 稳定的图像创意高档 |
|
|
|
|
| 稳定图像擦除对象 |
|
|
|
|
| 稳定的图像快速升级 |
|
|
|
|
| 稳定的图像涂抹 |
|
|
|
|
| 稳定的图像外观 |
|
|
|
|
| 稳定图像移除背景 |
|
|
|
|
| 稳定的图像搜索和重新着色 |
|
|
|
|
| 稳定的图像搜索和替换 |
|
|
|
|
| 《稳定图像风格指南》 |
|
|
|
|
| 稳定的图像风格传输 |
|
|
|
|
TwelveLabs
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Marengo 嵌入 3.0 |
|
|
|
|
| Marengo Embed v2.7 |
|
|
|
|
| Pegasus v1.2 |
|
|
|
|
写入器
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| Palmyra Vision 7B |
|
|
|
|
| Palmyra X4* |
|
|
|
|
| Palmyra X5* |
|
|
|
|
Z.AI
| 模型名称 | 调用 | Converse | 聊天完成次数 | 响应 |
|---|---|---|---|---|
| GLM 4.7* |
|
|
|
|
| GLM 4.7 Flash* |
|
|
|
|
| GLM 5* |
|
|
|
|
注意
* Streaming Support:标有星号 (*) 的模型也支持InvokeModelWithResponseStream,它以实时流的形式返回响应。
支持的型号 StartAsyncInvoke
StartAsyncInvoke 是一个 Amazon Bedrock 运行时 API,它允许调用者提交模型调用请求并立即接收 InvocationArn,而无需等待模型完成处理。任务在后台运行,完成后输出将写入调用者指定的 S3 存储桶。然后,来电者可以使用同伴 GetAsyncInvoke 和 ListAsyncInvokes APIs来电来投票工作状态。该模式专为涉及大量或对延迟不敏感的输入的工作负载而构建,尤其是视频、音频和批量嵌入生成,在这些工作负载中,保持开放的同步连接是不切实际的。
就哪些型号支持它而言,以下型号支持 StartAsyncInvoke:
-
TwelveLabs Marengo Embed 2.7(twelvelabs.marengo-embed-2-7-v 1:0)— 视频和音频输入所必需的;仅处理文本和图像 InvokeModel
-
TwelveLabs Marengo Embed 3.0(twelvelabs.marengo-embed-3-0-v 1:0)— 模式相同;规模化需要异步 video/audio
-
亚马逊 Nova Reel(亚马逊。 nova-reel-v1:0 和 v 1:1) — 视频生成完全是异步的;输出在 S3 中
-
Amazon Nova 多模态嵌入(amazon.nova-2-multimodal-embeddings-v 1:0)— 大于 25MB base64 编码的视频输入需要异步;文本、图像和文档输入可以使用同步
InvokeModelWithBidirectionalStream
InvokeModelWithBidirectionalStream是一个 Amazon Bedrock Runtime API,它在呼叫者和模型之间建立了一个永久的全双工通道,允许音频数据同时连续地双向流动。与遵循某种 request-then-response模式的标准InvokeModel或偶InvokeModelWithResponseStream APIs数不同,此 API 在会话期间保持连接处于打开状态,这样模型就可以在传入的音频到达时对其进行处理,并以近乎实时的方式将生成的语音流回去,而无需等待完整的语音完成。交互分为三个阶段:会话初始化(客户端发送配置事件以设置流)、音频流(其中捕获的音频被编码并作为连续事件流发送)和响应流(模型同时返回用户语音的文本转录和合成音频输出)。 InvokeModelWithBidirectionalStream不能与 Amazon Bedrock API 密钥一起使用,并且需要基于 AWS 凭证的标准身份验证,这反映了与其他 Bedrock 运行时操作相比,其会话生命周期更为复杂。
以下模型支持此 API:
-
亚马逊 Nova Sonic 家族:都是亚马逊。 nova-sonic-v1:0 和 amazon.nova-2-sonic-v 1:0 将其用作唯一的调用路径,因为该 speech-to-speech架构从根本上需要一个直播双向频道,而匡威都无法提供。 InvokeModel