

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# バッチ推論を使用して複数のプロンプトを処理する
<a name="batch-inference"></a>

バッチ推論では、複数のプロンプトを送信し、非同期でレスポンスを生成できます。`InvokeModel` または `Converse` API 形式を使用して、入力データをフォーマットできます。バッチ推論は、単一のリクエストを送信し Amazon S3 バケットにレスポンスを生成することで、多数のリクエストを効率的に処理するのに役立ちます。作成するファイルでモデル入力を定義したら、ファイルを S3 バケットにアップロードします。次に、バッチ推論リクエストを送信し、S3 バケットを指定します。ジョブが完了したら、S3 から出力ファイルを取得できます。バッチ推論を使用すると、大規模なデータセットでのモデル推論のパフォーマンスを向上させることができます。

**注記**  
バッチ推論は、プロビジョニングされたモデルではサポートされていません。

バッチ推論に関する一般的な情報については、次のリソースを参照してください。
+ バッチ推論の料金については、「[Amazon Bedrock の料金](https://aws.amazon.com/bedrock/pricing/)」を参照してください。
+ バッチ推論のクォータを確認するには、「 AWS 全般のリファレンス」の「[Amazon Bedrock endpoints and quota](https://docs.aws.amazon.com/general/latest/gr/bedrock.html)」を参照してください。
+ バッチ推論ジョブが完了したときに通知を受け取るか、ポーリングの代わりに状態を変更するには、「」を参照してください[Monitor Amazon Bedrock job state changes using Amazon EventBridgeイベントの変更をモニタリングする](monitoring-eventbridge.md)。

**Topics**
+ [バッチ推論でサポートされているリージョンおよびモデル](batch-inference-supported.md)
+ [バッチ推論の前提条件](batch-inference-prereq.md)
+ [バッチ推論ジョブを作成する](batch-inference-create.md)
+ [バッチ推論ジョブのモニタリング](batch-inference-monitor.md)
+ [バッチ推論ジョブを停止する](batch-inference-stop.md)
+ [バッチ推論ジョブの結果を表示する](batch-inference-results.md)
+ [バッチ推論のコード例](batch-inference-example.md)
+ [OpenAI Batch API を使用してプロンプトのバッチを送信する](inference-openai-batch.md)