

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Mise en forme et chargement des données d’inférence par lots
<a name="batch-inference-data"></a>

Vous devez ajouter vos données d’inférence par lots à un emplacement S3 que vous choisirez ou spécifierez lors de la soumission d’un modèle de tâche d’invocation. L’emplacement S3 doit contenir les éléments suivants :
+ Au moins un fichier JSONL qui définit les entrées du modèle. Un ficher JSONL contient des lignes d’objets JSON. Votre format JSONL doit se terminer par l’extension .jsonl et être au format suivant :

  ```
  { "recordId" : "alphanumeric string", "modelInput" : {JSON body} }
  ...
  ```

  Chaque ligne contient un objet JSON avec un `recordId` champ et un `modelInput` champ. Le format de l'objet `modelInput` JSON dépend du type d'invocation du modèle que vous choisissez lorsque vous [créez la tâche d'inférence par lots](batch-inference-create.md). Si vous utilisez le `InvokeModel` type (par défaut), le format doit correspondre au `body` champ du modèle que vous utilisez dans la `InvokeModel` demande (voir[Paramètres de demande d’inférence et champs de réponse pour les modèles de fondation](model-parameters.md)). Si vous utilisez le `Converse` type, le format doit correspondre au corps de la requête de l'API [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html).
**Note**  
Si vous omettez le champ `recordId`, Amazon Bedrock l’ajoutera dans la sortie.
Il n’est pas garanti que l’ordre des enregistrements dans le fichier JSONL de sortie corresponde à l’ordre des enregistrements dans le fichier JSONL d’entrée.
Vous spécifiez le modèle que vous souhaitez utiliser lorsque vous créez la [tâche d’inférence par lots](batch-inference-create.md).
+ (Si le contenu de votre entrée contient un emplacement Amazon S3) Certains modèles vous permettent de définir le contenu de l'entrée comme un emplacement S3. Consultez [Exemple d’entrée vidéo pour Amazon Nova](#batch-inference-data-ex-s3).
**Avertissement**  
Lorsque vous utilisez S3 URIs dans vos instructions, toutes les ressources doivent se trouver dans le même compartiment et le même dossier S3. Le `InputDataConfig` paramètre doit spécifier le chemin du dossier contenant toutes les ressources liées (telles que des vidéos ou des images), et pas uniquement un `.jsonl` fichier individuel. Notez que les chemins S3 distinguent les majuscules et minuscules. Assurez-vous donc de URIs correspondre exactement à la structure de dossiers.

Assurez-vous que vos entrées sont conformes aux quotas d’inférence par lots. Vous pouvez rechercher les quotas suivants dans [Amazon Bedrock service quotas](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#limits_bedrock) :
+ **Nombre minimum d’enregistrements par tâche d’inférence par lots** : nombre minimal d’enregistrements (objets JSON) dans les fichiers JSONL de la tâche.
+ **Enregistrements par fichier d’entrée par tâche d’inférence par lots** : nombre maximal d’enregistrements (objets JSON) dans un seul fichier JSONL de la tâche.
+ **Enregistrements par tâche d’inférence par lots** : nombre maximal d’enregistrements (objets JSON) dans les fichiers JSONL de la tâche.
+ **Taille du fichier d’entrée par inférence par lots** : taille maximale d’un seul fichier dans la tâche.
+ **Taille de la tâche d’inférence par lots** : taille cumulée maximale de tous les fichiers d’entrée.

Pour mieux comprendre comment configurer des entrées d’inférence par lots, consultez les exemples suivants :

## Exemple de saisie de texte pour Anthropic Claude 3 Haiku
<a name="batch-inference-data-ex-text"></a>

Si vous envisagez d’exécuter une inférence par lots à l’aide du format de l’[API Messages](model-parameters-anthropic-claude-messages.md) pour le modèle Anthropic Claude 3 Haiku, vous pouvez fournir un fichier JSONL contenant l’objet JSON suivant sous forme de ligne :

```
{
    "recordId": "CALL0000001", 
    "modelInput": {
        "anthropic_version": "bedrock-2023-05-31", 
        "max_tokens": 1024,
        "messages": [ 
            { 
                "role": "user", 
                "content": [
                    {
                        "type": "text", 
                        "text": "Summarize the following call transcript: ..." 
                    } 
                ]
            }
        ]
    }
}
```

## Exemple d’entrée vidéo pour Amazon Nova
<a name="batch-inference-data-ex-s3"></a>

Si vous envisagez d’exécuter une inférence par lots sur les entrées vidéo à l’aide des modèles Amazon Nova Lite ou Amazon Nova Pro, vous avez la possibilité de définir la vidéo en octets ou en tant qu’emplacement S3 dans le fichier JSONL. Par exemple, vous pouvez avoir un compartiment S3 dont le chemin est `s3://batch-inference-input-bucket` et contient les fichiers suivants :

```
s3://batch-inference-input-bucket/
├── videos/
│   ├── video1.mp4
│   ├── video2.mp4
│   ├── ...
│   └── video50.mp4
└── input.jsonl
```

Voici un exemple d’enregistrement à partir du fichier `input.jsonl` :

```
{
    "recordId": "RECORD01",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "You are an expert in recipe videos. Describe this video in less than 200 words following these guidelines: ..."
                    },
                    {
                        "video": {
                            "format": "mp4",
                            "source": {
                                "s3Location": {
                                    "uri": "s3://batch-inference-input-bucket/videos/video1.mp4",
                                    "bucketOwner": "111122223333"
                                }
                            }
                        }
                    }
                ]
            }
        ]
    }
}
```

Lorsque vous créez la tâche d'inférence par lots, vous devez spécifier le chemin du dossier `s3://batch-inference-input-bucket` dans vos `InputDataConfig` paramètres. L'inférence par lots traitera le `input.jsonl` fichier à cet emplacement, ainsi que toutes les ressources référencées (telles que les fichiers vidéo du `videos` sous-dossier).

Les ressources suivantes fournissent plus d’informations sur la soumission d’entrées vidéo pour l’inférence par lots :
+ Pour savoir comment valider Amazon S3 URIs dans une demande d'entrée, consultez le [blog Amazon S3 URL Parsing](https://aws.amazon.com/blogs/devops/s3-uri-parsing-is-now-available-in-aws-sdk-for-java-2-x/).
+ Pour plus d'informations sur la façon de configurer des enregistrements d'invocation pour la compréhension vidéo avec Nova, consultez les directives relatives aux [appels Amazon Nova visuels.](https://docs.aws.amazon.com/nova/latest/userguide/prompting-vision-prompting.html)

## Exemple d'entrée Converse
<a name="batch-inference-data-ex-converse"></a>

Si vous définissez le type d'appel du modèle sur `Converse` lors de la création de la tâche d'inférence par lots, le `modelInput` champ doit utiliser le format de demande de l'API Converse. L'exemple suivant montre un enregistrement JSONL pour une tâche d'inférence par lots Converse :

```
{
    "recordId": "CALL0000001",
    "modelInput": {
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "text": "Summarize the following call transcript: ..."
                    }
                ]
            }
        ],
        "inferenceConfig": {
            "maxTokens": 1024
        }
    }
}
```

Pour la liste complète des champs pris en charge dans le corps de la requête Converse, voir [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html) dans le guide de référence de l'API.

La rubrique suivante décrit comment configurer l’accès S3 et les autorisations d’inférence par lots pour une identité afin de pouvoir effectuer une inférence par lots.