

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Déploiement d’un modèle personnalisé pour une inférence à la demande
<a name="deploy-custom-model-on-demand"></a>

 Après avoir créé un modèle personnalisé à l'aide d'une tâche de personnalisation du modèle ou importé un Amazon Nova modèle personnalisé SageMaker entraîné par l'IA, vous pouvez configurer l'inférence à la demande pour le modèle. Avec l’inférence à la demande, vous ne payez que pour ce que vous utilisez et vous n’avez pas besoin de configurer des ressources informatiques provisionnées. 

Pour configurer l’inférence à la demande pour un modèle personnalisé, vous devez le déployer avec un déploiement de modèle personnalisé. Après avoir déployé votre modèle personnalisé, vous utilisez l’Amazon Resource Name (ARN) du déploiement comme paramètre `modelId` lorsque vous soumettez des invites et générez des réponses par inférence de modèle.

 Pour plus d’informations sur la tarification de l’inférence à la demande, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Vous pouvez déployer un modèle personnalisé pour l’inférence à la demande dans les régions suivantes (pour plus d’informations sur les régions prises en charge par Amazon Bedrock, consultez [Points de terminaison et quotas Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html)) : 
+ USA Est (Virginie du Nord)
+ USA Ouest (Oregon)

## Conditions préalables au déploiement d’un modèle personnalisé pour l’inférence à la demande
<a name="custom-model-inference-prerequisites"></a>

Avant de déployer un modèle personnalisé pour l’inférence à la demande, vérifiez que vous respectez les conditions requises suivantes :
+ Vous devez utiliser la région USA Est (Virginie du Nord) ou USA Ouest (Oregon).
+ Vous devez personnaliser le modèle le 16 juillet 2025 ou après cette date. Pour les modèles pris en charge, consultez [Modèles de base pris en charge](#custom-model-inference-supported-models).
+ Votre compte doit avoir l’autorisation d’accéder au modèle que vous déployez. Pour plus d’informations sur la personnalisation, l’accès et la sécurité du modèle, consultez [Personnalisation, accès et sécurité des modèles](custom-model-job-access-security.md).
+ Si le modèle est chiffré avec une AWS KMS clé, vous devez être autorisé à utiliser cette clé. Pour de plus amples informations, veuillez consulter [Chiffrement de modèles personnalisés](encryption-custom-job.md).

## Modèles de base pris en charge
<a name="custom-model-inference-supported-models"></a>

Vous pouvez configurer l’inférence à la demande pour les modèles de base suivants :
+ Amazon Nova Lite
+ Amazon Nova Micro
+ Amazon Nova Pro
+ Meta Llama 3.3 70B Instruct

## Déploiement d’un modèle personnalisé
<a name="deploy-custom-model"></a>

Vous pouvez déployer un modèle personnalisé à l'aide de la console Amazon Bedrock AWS Command Line Interface, ou AWS SDKs. Pour plus d’informations sur l’utilisation du déploiement à des fins d’inférence, consultez [Utiliser un déploiement pour l’inférence à la demande](#use-custom-model-on-demand).

------
#### [ Console ]

Vous déployez un modèle personnalisé à partir de la page **Modèles personnalisés** comme suit. Vous pouvez également déployer un modèle à partir de la page **Modèle personnalisé à la demande** avec les mêmes champs. Pour accéder à cette page, sous **Déduire** dans le volet de navigation, sélectionnez **Modèle personnalisé à la demande**.

**Pour déployer un modèle personnalisé**

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Dans le volet de navigation de gauche, choisissez **Modèles personnalisés** sous **Régler**.

1. Dans l’onglet **Modèles**, cliquez sur le bouton radio correspondant au modèle que vous souhaitez déployer.

1. Choisissez **Configurer l’inférence** et choisissez **Déployer avec la fonctionnalité à la demande**.

1. Sous **Détails du déploiement**, fournissez les informations suivantes :
   + **Nom du déploiement** (obligatoire) : saisissez un nom unique pour votre déploiement.
   + **Description** (facultatif) : entrez une description de votre déploiement.
   + **Balises** (facultatif) : ajoutez des balises pour la répartition des coûts et la gestion des ressources.

1. Choisissez **Créer**. Lorsque le statut du déploiement est `Active`, votre modèle personnalisé est prêt pour une inférence à la demande. Pour plus d’informations sur l’utilisation des modèles personnalisés, consultez [Utiliser un déploiement pour l’inférence à la demande](#use-custom-model-on-demand).

------
#### [ CLI ]

Pour déployer un modèle personnalisé à des fins d'inférence à la demande à l'aide de AWS Command Line Interface, utilisez la `create-custom-model-deployment` commande avec le Amazon Resource Name (ARN) de votre modèle personnalisé. Cette commande utilise l'opération [CreateCustomModelDeployment](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateCustomModelDeployment.html)API. La réponse comprend l’ARN du déploiement. Lorsque le déploiement est actif, vous utilisez cet ARN comme `modelId` lorsque vous effectuez des demandes d’inférence. Pour plus d’informations sur l’utilisation du déploiement à des fins d’inférence, consultez [Utiliser un déploiement pour l’inférence à la demande](#use-custom-model-on-demand).

```
aws bedrock create-custom-model-deployment \
--model-deployment-name "Unique name" \
--model-arn "Custom Model ARN" \
--description "Deployment description" \
--tags '[
    {
        "key": "Environment",
        "value": "Production"
    },
    {
        "key": "Team",
        "value": "ML-Engineering"
    },
    {
        "key": "Project",
        "value": "CustomerSupport"
    }
]' \
--client-request-token "unique-deployment-token" \
--region region
```

------
#### [ API ]

Pour déployer un modèle personnalisé à des fins d'inférence à la demande, utilisez l'opération d'[CreateCustomModelDeployment](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateCustomModelDeployment.html)API avec le Amazon Resource Name (ARN) de votre modèle personnalisé. La réponse comprend l’ARN du déploiement. Lorsque le déploiement est actif, vous utilisez cet ARN comme `modelId` lorsque vous effectuez des demandes d’inférence. Pour plus d’informations sur l’utilisation du déploiement à des fins d’inférence, consultez [Utiliser un déploiement pour l’inférence à la demande](#use-custom-model-on-demand).

Le code suivant montre comment utiliser le kit SDK for Python (Boto3) pour déployer un modèle personnalisé.

```
def create_custom_model_deployment(bedrock_client):
    """Create a custom model deployment
    Args:
        bedrock_client: A boto3 Amazon Bedrock client for making API calls

    Returns:
        str: The ARN of the new custom model deployment

    Raises:
        Exception: If there is an error creating the deployment
    """

    try:
        response = bedrock_client.create_custom_model_deployment(
            modelDeploymentName="Unique deployment name",
            modelArn="Custom Model ARN",
            description="Deployment description",
            tags=[
                {'key': 'Environment', 'value': 'Production'},
                {'key': 'Team', 'value': 'ML-Engineering'},
                {'key': 'Project', 'value': 'CustomerSupport'}
            ],
            clientRequestToken=f"deployment-{uuid.uuid4()}"
        )

        deployment_arn = response['customModelDeploymentArn']
        print(f"Deployment created: {deployment_arn}")
        return deployment_arn

    except Exception as e:
        print(f"Error creating deployment: {str(e)}")
        raise
```

------

## Utiliser un déploiement pour l’inférence à la demande
<a name="use-custom-model-on-demand"></a>

Après avoir déployé votre modèle personnalisé, vous utilisez l’Amazon Resource Name (ARN) du déploiement comme paramètre `modelId` lorsque vous soumettez des invites et générez des réponses par inférence de modèle.

Pour plus d’informations sur les demandes d’inférence, consultez les rubriques suivantes :
+ [Soumission d’invites et génération de réponses à l’aide de l’inférence de modèle](inference.md)
+ [Conditions préalables à l’exécution de l’inférence de modèle](inference-prereq.md)
+ [Soumission des invites et génération des réponses à l’aide de l’API](inference-api.md)

## Suppression d’un déploiement de modèle personnalisé
<a name="delete-custom-model-deployment"></a>

Une fois que vous avez fini d’utiliser votre modèle pour l’inférence à la demande, vous pouvez supprimer le déploiement. Une fois le déploiement supprimé, vous ne pouvez pas l’utiliser pour des inférences à la demande, mais la suppression du déploiement ne supprime pas le modèle personnalisé sous-jacent.

Vous pouvez supprimer un déploiement de modèle personnalisé à l'aide de la console Amazon Bedrock AWS Command Line Interface, ou AWS SDKs.

**Important**  
La suppression d’un déploiement de modèle personnalisé est irréversible. Assurez-vous que vous n’avez plus besoin du déploiement avant de procéder à la suppression. Si vous devez réutiliser le modèle personnalisé pour l’inférence à la demande, vous devez créer un nouveau déploiement.

------
#### [ Console ]

**Pour supprimer un déploiement de modèle personnalisé**

1. Dans le volet de navigation, sous **Déduire**, sélectionnez **Modèle personnalisé à la demande**.

1. Choisissez le déploiement de modèle personnalisé que vous souhaitez supprimer.

1. Sélectionnez **Delete (Supprimer)**.

1. Dans la boîte de confirmation, saisissez le nom du déploiement pour confirmer la suppression.

1. Pour confirmer la suppression, choisissez **Supprimer**.

------
#### [ CLI ]

Pour supprimer un déploiement de modèle personnalisé à l'aide du AWS Command Line Interface, utilisez la `delete-custom-model-deployment` commande avec votre identifiant de déploiement. Cette commande utilise l'opération [DeleteCustomModelDeployment](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteCustomModelDeployment.html)API. 

```
aws bedrock delete-custom-model-deployment \
--custom-model-deployment-identifier "deployment-arn-or-name" \
--region region
```

------
#### [ API ]

Pour supprimer un déploiement de modèle personnalisé par programmation, utilisez l'opération d'[DeleteCustomModelDeployment](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_DeleteCustomModelDeployment.html)API avec le nom ou l'ARN (Amazon Resource Name) du déploiement. Le code suivant montre comment utiliser le kit SDK for Python (Boto3) pour supprimer un déploiement de modèle personnalisé.

```
def delete_custom_model_deployment(bedrock_client):
    """Delete a custom model deployment

    Args:
        bedrock_client: A boto3 Amazon Bedrock client for making API calls

    Returns:
        dict: The response from the delete operation

    Raises:
        Exception: If there is an error deleting the deployment
    """

    try:
        response = bedrock_client.delete_custom_model_deployment(
            customModelDeploymentIdentifier="Deployment identifier"
        )

        print("Deleting deployment...")
        return response

    except Exception as e:
        print(f"Error deleting deployment: {str(e)}")
        raise
```

------