

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 使用批量推理处理多个提示
<a name="batch-inference"></a>

使用批量推理，您可以提交多个提示并异步生成响应。您可以使用`InvokeModel`或 `Converse` API 格式来格式化输入数据。批量推理通过发送单个请求并在 Amazon S3 存储桶中生成响应，帮助您高效地处理大量请求。在您创建的文件中定义模型输入后，您需要将相应文件上传到 S3 存储桶。然后，您需要提交批量推理请求并指定 S3 存储桶。作业完成后，您可以从 S3 检索输出文件。您可以使用批量推理来提高对大型数据集的模型推理性能。

**注意**  
预置模型不支持批量推理。

有关批量推理的一般信息，请参阅以下资源：
+ 要查看批量推理的定价，请参阅 [Amazon Bedrock 定价](https://aws.amazon.com/bedrock/pricing/)。
+ 要查看批量推理的配额，请参阅 AWS 一般参考中的 [Amazon Bedrock endpoints and quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html)。
+ 要在批量推理作业完成或状态更改而不是轮询时接收通知，请参阅[使用亚马逊监控 Amazon Bedrock 作业状态的变化 EventBridge监控事件变化](monitoring-eventbridge.md)。

**Topics**
+ [支持批量推理的区域和模型](batch-inference-supported.md)
+ [批量推理的先决条件](batch-inference-prereq.md)
+ [创建批量推理作业](batch-inference-create.md)
+ [监控批量推理作业](batch-inference-monitor.md)
+ [停止批量推理作业](batch-inference-stop.md)
+ [查看批量推理作业的结果](batch-inference-results.md)
+ [批量推理的代码示例](batch-inference-example.md)
+ [使用 OpenAI 批处理 API 批量提交提示](inference-openai-batch.md)