

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Création d'une tâche d'inférence par lots
<a name="batch-inference-create"></a>

Après avoir configuré un compartiment Amazon S3 avec des fichiers pour exécuter l’inférence de modèles, vous pouvez créer une tâche d’inférence par lots. Avant de commencer, vérifiez que vous avez configuré les fichiers conformément aux instructions décrites dans [Mise en forme et chargement des données d’inférence par lots](batch-inference-data.md).

**Note**  
Pour soumettre une tâche d’inférence par lots à l’aide d’un VPC, vous devez utiliser l’API. Sélectionnez l’onglet API pour savoir comment inclure la configuration du VPC.

Pour savoir comment créer une tâche d’inférence par lots, choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ Console ]

**Pour créer une tâche d’inférence par lots**

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Dans le volet de navigation de gauche, sélectionnez **Inférence par lots**.

1. Dans la section **Tâches d’inférence par lots**, choisissez **Créer une tâche**.

1. Dans la section **Détails de la tâche**, attribuez un **nom** à la tâche d’inférence par lots et sélectionnez le modèle à utiliser pour la tâche d’inférence par lots en choisissant **Sélectionner un modèle**.

1. Dans la section **Type d'invocation du modèle**, choisissez le format d'API pour vos données d'entrée. Choisissez **InvokeModel**si vos données d'entrée utilisent des formats de requête spécifiques au modèle, ou choisissez **Converse** si vos données d'entrée utilisent le format de l'API Converse. La valeur par défaut est **InvokeModel**.

1. Dans la section **Données d’entrée**, choisissez **Browse S3** et sélectionnez un emplacement S3 pour votre tâche d’inférence par lots. L’inférence par lots traite tous les fichiers JSONL et les fichiers de contenu associés à cet emplacement S3, qu’il s’agisse d’un dossier S3 ou d’un seul fichier JSONL.
**Note**  
Si les données d’entrée se trouvent dans un compartiment S3 appartenant à un compte différent de celui à partir duquel vous soumettez le travail, vous devez utiliser l’API pour soumettre le travail d’inférence par lots. Pour savoir comment procéder, sélectionnez l’onglet API ci-dessus.

1. Dans la section **Données de sortie**, choisissez **Browse S3** et sélectionnez un emplacement S3 pour stocker les fichiers de sortie de votre tâche d'inférence par lots. Par défaut, les données de sortie seront cryptées par un Clé gérée par AWS. Pour choisir une clé KMS personnalisée, sélectionnez **Personnaliser les paramètres de chiffrement (avancé)**, puis choisissez une clé. Pour plus d’informations sur le chiffrement des ressources Amazon Bedrock et la configuration d’une clé KMS personnalisée, consultez [Chiffrement des données](data-encryption.md).
**Note**  
Si vous prévoyez d’écrire les données de sortie dans un compartiment S3 appartenant à un compte différent de celui à partir duquel vous soumettez le travail, vous devez utiliser l’API pour soumettre le travail d’inférence par lots. Pour savoir comment procéder, sélectionnez l’onglet API ci-dessus.

1. Dans la section **Accès au service**, sélectionnez l’une des options suivantes :
   + **Utiliser une fonction du service existante** : sélectionnez une fonction du service dans la liste déroulante. Pour plus d’informations sur la configuration d’un rôle personnalisé avec les autorisations appropriées, consultez [Autorisations requises pour l’inférence par lots](batch-inference-permissions.md).
   + **Créer et utiliser une nouvelle fonction du service** : entrez un nom pour la fonction du service.

1. (Facultatif) Pour associer des balises à la tâche d’inférence par lots, développez la section **Balises** et ajoutez une clé et une valeur facultative pour chaque balise. Pour de plus amples informations, veuillez consulter [Balisage des ressources Amazon Bedrock](tagging.md).

1. Choisissez **Create batch inference job (Créer une tâche d'inférence par lots)**.

------
#### [ API ]

Pour créer une tâche d'inférence par lots, envoyez une [CreateModelInvocationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelInvocationJob.html)demande avec un point de terminaison du [plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp).

Les champs suivants sont obligatoires :


****  

| Champ | Cas d’utilisation | 
| --- | --- | 
| jobName | Pour spécifier un nom pour la tâche. | 
| roleArn | Pour spécifier l’Amazon Resource Name (ARN) du rôle de service avec les autorisations nécessaires à la création et à la gestion de la tâche. Pour de plus amples informations, veuillez consulter [Création d’un rôle de service pour l’inférence par lots](batch-iam-sr.md). | 
| modelId | Pour spécifier l’ID ou l’ARN du modèle à utiliser dans l’inférence. | 
| inputDataConfig | Pour spécifier l’emplacement S3 contenant les données d’entrée. L’inférence par lots traite tous les fichiers JSONL et les fichiers de contenu associés à cet emplacement S3, qu’il s’agisse d’un dossier S3 ou d’un seul fichier JSONL. Pour de plus amples informations, veuillez consulter [Mise en forme et chargement des données d’inférence par lots](batch-inference-data.md). | 
| outputDataConfig | Pour spécifier l’emplacement S3 dans lequel écrire les réponses du modèle. | 

Les champs suivants sont facultatifs :


****  

| Champ | Cas d’utilisation | 
| --- | --- | 
| modelInvocationType | Pour spécifier le format d'API des données d'entrée. Définissez sur Converse pour utiliser le format de l'API Converse ou InvokeModel (par défaut) pour utiliser des formats de requête spécifiques au modèle. Pour plus d'informations sur le format de requête Converse, consultez [Converse](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_Converse.html). | 
| timeoutDurationInHeures | Pour spécifier la durée en heures au terme de laquelle la tâche expirera. | 
| tags | Pour spécifier les balises à associer à la tâche. Pour de plus amples informations, veuillez consulter [Balisage des ressources Amazon Bedrock](tagging.md). | 
| vpcConfig | Pour spécifier la configuration VPC à utiliser pour protéger vos données pendant la tâche. Pour de plus amples informations, veuillez consulter [Protection des tâches d’inférence par lots à l’aide d’un VPC](batch-vpc.md). | 
| clientRequestToken | Pour garantir que la demande d’API n’est exécutée qu’une seule fois. Pour plus d’informations, consultez [Garantie de l’idempotence](https://docs.aws.amazon.com/ec2/latest/devguide/ec2-api-idempotency.html). | 

La réponse renvoie un `jobArn` que vous pourrez utiliser pour faire référence à la tâche lors de l’exécution d’autres appels d’API liés à l’inférence par lots.

------