

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# バッチ推論データをフォーマットしてアップロードする
<a name="batch-inference-data"></a>

モデル呼び出しジョブを送信するときに選択または指定する S3 の場所にバッチ推論データを追加する必要があります。S3 の場所には、次の項目が含まれている必要があります。
+ モデル入力を定義する少なくとも 1 つの JSONL ファイル。JSONL には JSON オブジェクトの行が含まれています。JSONL ファイルは拡張子 .jsonl で終わり、次の形式である必要があります。

  ```
  { "recordId" : "alphanumeric string", "modelInput" : {JSON body} }
  ...
  ```

  各行には、 `recordId`フィールドと `modelInput`フィールドを含む JSON オブジェクトが含まれています。`modelInput` JSON オブジェクトの形式は、[バッチ推論ジョブの作成](batch-inference-create.md)時に選択するモデル呼び出しタイプによって異なります。`InvokeModel` タイプ (デフォルト) を使用する場合、形式は`InvokeModel`リクエストで使用するモデルの `body`フィールドと一致する必要があります (「」を参照[Inference request parameters and response fields for foundation models](model-parameters.md))。`Converse` タイプを使用する場合、形式は [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) API のリクエスト本文と一致する必要があります。
**注記**  
`recordId` フィールドを省略すると、Amazon Bedrock はそのフィールドを出力に追加します。
出力 JSONL ファイルのレコードの順序が入力 JSONL ファイルのレコードの順序と一致するとは限りません。
[バッチ推論ジョブ](batch-inference-create.md)を作成するときに使用するモデルを指定します。
+ (入力コンテンツに Amazon S3 の場所が含まれている場合) 一部のモデルでは、入力の内容を S3 の場所として定義できます。「[Amazon Nova のビデオ入力の例](#batch-inference-data-ex-s3)」を参照してください。
**警告**  
プロンプトで S3 URIs を使用する場合、すべてのリソースが同じ S3 バケットとフォルダに存在する必要があります。`InputDataConfig` パラメータは、個々の`.jsonl`ファイルだけでなく、リンクされたすべてのリソース (動画や画像など) を含むフォルダパスを指定する必要があります。S3 パスでは大文字と小文字が区別されるため、URIs がフォルダ構造と完全に一致することを確認してください。

入力がバッチ推論クォータに準拠していることを確認します。「[Amazon Bedrock のサービスクォータ](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock)」で、次のクォータを検索できます。
+ **バッチ推論ジョブごとのレコードの最小数** – ジョブ内の JSONL ファイル全体におけるレコード (JSON オブジェクト) の最小数。
+ **バッチ推論ジョブごとの入力ファイルあたりのレコード** – ジョブ内の 1 つの JSONL ファイルにおけるレコード (JSON オブジェクト) の最大数。
+ **バッチ推論ジョブごとのレコード** – ジョブ内の JSONL ファイル全体におけるレコード (JSON オブジェクト) の最大数。
+ **バッチ推論入力ファイルのサイズ** – ジョブ内の 1 つのファイルの最大サイズ。
+ **バッチ推論ジョブのサイズ** – すべての入力ファイルの最大累積サイズ。

バッチ推論入力の設定方法に関する理解を深めるには、以下の例を参照してください。

## Anthropic Claude 3 Haiku のテキスト入力の例
<a name="batch-inference-data-ex-text"></a>

Anthropic Claude 3 Haiku モデルの [Messages API](model-parameters-anthropic-claude-messages.md) 形式を使用してバッチ推論を実行する場合は、次の JSON オブジェクトを含む JSONL ファイルを行の 1 つとして指定できます。

```
{
    "recordId": "CALL0000001", 
    "modelInput": {
        "anthropic_version": "bedrock-2023-05-31", 
        "max_tokens": 1024,
        "messages": [ 
            { 
                "role": "user", 
                "content": [
                    {
                        "type": "text", 
                        "text": "Summarize the following call transcript: ..." 
                    } 
                ]
            }
        ]
    }
}
```

## Amazon Nova のビデオ入力の例
<a name="batch-inference-data-ex-s3"></a>

Amazon Nova Lite または Amazon Nova Pro モデルを使用してビデオ入力でバッチ推論を実行する場合は、ビデオをバイト単位で定義するか、JSONL ファイル内の S3 の場所として定義するかを選択できます。例えば、パスが `s3://batch-inference-input-bucket` で、次のファイルが含まれている S3 バケットがあるとします。

```
s3://batch-inference-input-bucket/
├── videos/
│   ├── video1.mp4
│   ├── video2.mp4
│   ├── ...
│   └── video50.mp4
└── input.jsonl
```

`input.jsonl` ファイルのサンプルレコードは次のようになります。

```
{
    "recordId": "RECORD01",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "You are an expert in recipe videos. Describe this video in less than 200 words following these guidelines: ..."
                    },
                    {
                        "video": {
                            "format": "mp4",
                            "source": {
                                "s3Location": {
                                    "uri": "s3://batch-inference-input-bucket/videos/video1.mp4",
                                    "bucketOwner": "111122223333"
                                }
                            }
                        }
                    }
                ]
            }
        ]
    }
}
```

バッチ推論ジョブを作成するときは、 `InputDataConfig`パラメータ`s3://batch-inference-input-bucket`でフォルダパスを指定する必要があります。バッチ推論は、参照されるリソース (`videos`サブフォルダ内のビデオファイルなど) とともに、この場所で`input.jsonl`ファイルを処理します。

以下のリソースでは、バッチ推論用のビデオ入力の送信について詳しく説明しています。
+ 入力リクエストで Amazon S3 URIs を検証する方法については、[Amazon S3 URL 解析ブログ](https://aws.amazon.com/blogs/devops/s3-uri-parsing-is-now-available-in-aws-sdk-for-java-2-x/)を参照してください。
+ Nova でのビデオ理解のための呼び出しレコードの設定方法の詳細については、[Amazon Nova「ビジョンプロンプトガイドライン](https://docs.aws.amazon.com/nova/latest/userguide/prompting-vision-prompting.html)」を参照してください。

## Converse 入力の例
<a name="batch-inference-data-ex-converse"></a>

バッチ推論ジョブの作成`Converse`時にモデル呼び出しタイプを に設定した場合、 `modelInput`フィールドは Converse API リクエスト形式を使用する必要があります。次の例は、Converse バッチ推論ジョブの JSONL レコードを示しています。

```
{
    "recordId": "CALL0000001",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "Summarize the following call transcript: ..."
                    }
                ]
            }
        ],
        "inferenceConfig": {
            "maxTokens": 1024
        }
    }
}
```

Converse リクエスト本文でサポートされているフィールドの完全なリストについては、 API リファレンスの[「Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html)」を参照してください。

次のトピックでは、アイデンティティがバッチ推論を実行できるように S3 へのアクセスとバッチ推論のアクセス許可を設定する方法について説明します。