

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# APIs 由 Amazon Bedrock 支持
<a name="apis"></a>

**支持推理 APIs **

Amazon Bedrock 提供了四种主要的 API 模式来在 Amazon Bedrock [中执行推理](inference.md)。


| **API 方法** | **服务终端节点** | **最适合的用例** | **关键功能** | 
| --- | --- | --- | --- | 
| [响应 API](bedrock-mantle.md)（推荐） | bedrock-mantle.<suffix> | 有状态的对话 | 将 Response API 用于需要使用内置工具（搜索、代码解释器）、多模式输入和有状态对话的现代代理应用程序 | 
| [聊天完成](bedrock-mantle.md) | bedrock-mantle.<suffix>（推荐）和 bedrock-runtime.<suffix> | 无状态多回合聊天 | 使用 [Chat Completions API](inference-chat-completions.md) 执行轻量级、无状态、以文本为重点的任务，在这些任务中，您需要完全控制聊天记录管理和降低延迟。 | 
| [匡威方法](conversation-inference.md) | bedrock-runtime.<suffix> | 多轮聊天/标准化 | [Converse API](conversation-inference.md) 提供了一个统一的接口，用于与 Amazon Bedrock 中的所有模型进行交互。 | 
| [调用方法](inference-invoke.md) | bedrock-runtime.<suffix> | 单笔交易/大型有效负载 | Invoke API 提供对模型的直接访问，从而更好地控制请求和响应格式。 | 

注意：后缀是 `{region}.amazonaws.com`

阅读有关 [Amazon Bedrock APIs 支持的](inference-api.md)更多信息。

**在之间做出决定 APIs**

您使用的 API 取决于您的用例。


| **使用场景** | **推荐的 API** | 
| --- | --- | 
| 从兼容 OpenAI API 的端点迁移 | 使用兼容 OpenAI APIs：[响应 API](https://platform.openai.com/docs/api-reference/responses) 或[聊天完成](inference-chat-completions.md) API。根据OpenAI的说法，[推荐](https://platform.openai.com/docs/guides/migrate-to-responses)的长期API是响应API。 | 
| 使用与 OpenAI 兼容端点不兼容的模型 | [使用原生 Amazon Bedrock APIs：C [onverse 和调](conversation-inference.md)用。](inference-invoke.md)有关更多信息，请参阅 [使用 API 提交提示并生成响应](inference-api.md)。 | 
| 所有型号均采用一致的接口 | [Converse API](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html)-适用于所有支持消息的模型。只需编写一次代码，即可将其用于不同的模型。有关示例代码，请参阅[匡威 API 示例](https://docs.aws.amazon.com/bedrock/latest/userguide/conversation-inference.html#message-inference-examples)。 | 
| 完全控制直接访问模型 | [调用 API](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)-通过更好地控制请求和响应格式，提供对模型的直接访问。用于生成文本、图像和嵌入内容。有关示例代码，请参阅[调用模型代码示例](https://docs.aws.amazon.com/bedrock/latest/userguide/inference-invoke.html#inference-example-invoke)。 | 
| Amazon Bedrock 的新手 | 从[响应 API](bedrock-mantle.md) 开始 | 

**每个 API 和端点支持的模型**

首先，浏览我们的[模型](models.md)以决定要使用的模型。确定要使用的模型后，您可以看到 APIs 它支持的模型，并根据该模型选择要使用的端点。`bedrock-mantle`支持 “回复” 和 “聊天完成” API。`bedrock-runtime`支持调用和交谈 API。