

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# 使用批次推論處理多個提示
<a name="batch-inference"></a>

使用批次推論，您可以提交多個提示並以非同步方式產生回應。您可以使用 `InvokeModel`或 `Converse` API 格式來格式化輸入資料。批次推論可協助您有效率地處理大量請求，方法是傳送單一請求，並在 Amazon S3 儲存貯體中產生回應。在建立的檔案中定義模型輸入後，將檔案上傳到 S3 儲存貯體。然後，您提交批次推論請求並指定 S3 儲存貯體。任務完成後，您可以從 S3 擷取輸出檔案。您可以使用批次推論來改善大型資料集上模型推論的效能。

**注意**  
佈建模型不支援批次推論。

如需批次推論的一般資訊，請參閱下列資源：
+ 若要查看批次推論的定價，請參閱 [Amazon Bedrock 定價](https://aws.amazon.com/bedrock/pricing/)。
+ 若要查看批次推論的配額，請參閱 AWS 一般參考中的 [Amazon Bedrock 端點和配額](https://docs.aws.amazon.com/general/latest/gr/bedrock.html)。
+ 若要在批次推論任務完成或變更狀態而非輪詢時接收通知，請參閱 [使用 Amazon EventBridge 監控 Amazon Bedrock 任務狀態變更監控事件變更](monitoring-eventbridge.md)。

**Topics**
+ [支援批次推論的區域和模型](batch-inference-supported.md)
+ [批次推論的先決條件](batch-inference-prereq.md)
+ [建立批次推論任務](batch-inference-create.md)
+ [監控批次推論任務](batch-inference-monitor.md)
+ [停止批次推論任務](batch-inference-stop.md)
+ [檢視批次推論任務的結果](batch-inference-results.md)
+ [批次推論的程式碼範例](batch-inference-example.md)
+ [使用 OpenAI 批次 API 提交一批提示](inference-openai-batch.md)