

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 使用 API 提交提示并生成响应
<a name="inference-api"></a>

Amazon Bedrock 提供以下 API 操作来执行模型推理：
+ [InvokeModel](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModel.html)— 提交提示并生成响应。请求正文特定于模型。要生成直播响应，请使用[InvokeModelWithResponseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithResponseStream.html)。
+ [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) – 提交提示并使用所有模型统一的结构生成响应。可以在 `additionalModelRequestFields` 字段中指定特定于模型的请求字段。您还可以包含系统提示和之前的对话以了解上下文。要生成直播响应，请使用[ConverseStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ConverseStream.html)。
+ [StartAsyncInvoke](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_StartAsyncInvoke.html)— 提交提示并异步生成响应，以后可以检索。用于生成视频。
+ [InvokeModelWithBidirectionalStream](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_InvokeModelWithBidirectionalStream.html) – 
+ OpenAI 聊天补全 API – 使用 Amazon Bedrock 支持的模型和 [OpenAI 聊天补全 API](https://platform.openai.com/docs/api-reference/chat/create) 生成响应。

**注意**  
限制适用于以下操作：`InvokeModel`、`InvokeModelWithResponseStream``Converse`、和`ConverseStream`。有关详细信息，请参阅 [API 限制](inference-api-restrictions.md)。

要进行模型推理，您需要确定以下参数：
+ 模型 ID：在 `modelId` 字段中用于推理的模型或推理配置文件的 ID 或 Amazon 资源名称（ARN）。下表描述了如何 IDs 查找不同类型的资源：  
****    
[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_cn/bedrock/latest/userguide/inference-api.html)
+ 请求正文：包含模型的推理参数和其他配置。每个基础模型都有自己的推理参数。自定义模型或预调配模型的推理参数取决于创建模型时所依据的基础模型。有关更多信息，请参阅 [基础模型的推理请求参数和响应字段](model-parameters.md)。

选择一个主题来学习如何使用模型调用 APIs。

**Topics**
+ [使用以下命令提交单个提示 InvokeModel](inference-invoke.md)
+ [使用 OpenAI 聊天补全 API 调用模型](inference-chat-completions.md)
+ [使用 Converse API 操作进行对话](conversation-inference.md)
+ [API 限制](inference-api-restrictions.md)