

Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.

# Personnalisez un modèle en le peaufinant dans Amazon Bedrock
<a name="custom-model-fine-tuning"></a>

Avec Amazon Bedrock, vous pouvez entraîner un modèle de base afin d'améliorer les performances sur des tâches spécifiques (c'est ce que l'on appelle le réglage fin). Pour plus d’informations sur le peaufinage des modèles Amazon Nova, consultez [Peaufinage des modèles Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

## Modèles et régions pris en charge pour un réglage précis
<a name="custom-model-supported"></a>

Le tableau suivant présente les modèles de base que vous pouvez affiner :


| Fournisseur | Modèle | ID du modèle | Support du modèle à région unique | 
| --- | --- | --- | --- | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v 1:0:256 k |  us-east-1  | 
| Amazon | Nova Canvas | amazon. nova-canvas-v1:0 |  us-east-1  | 
| Amazon | Nova Lite | amazon. nova-lite-v1:30:300 km |  us-east-1  | 
| Amazon | Nova Micro | amazon. nova-micro-v1:40:128 km |  us-east-1  | 
| Amazon | Nova Pro | amazon. nova-pro-v1:30:300 km |  us-east-1  | 
| Amazon | Titan Image Generator G1 v2 | amazon. titan-image-generator-v2:0 |  us-east-1 us-west-2  | 
| Amazon | Titan Multimodal Embeddings G1 | amazon. titan-embed-image-v1:0 |  us-east-1 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0:200k |  us-west-2  | 
| Meta | Llama 3.1 70B Instruct | b-instruct-vmeta.llama3-1-70 1:10:128 k |  us-west-2  | 
| Meta | Llama 3.1 8B Instruct | b-instruct-vmeta.llama3-1-8 1:10:128 k |  us-west-2  | 
| Meta | Llama 3.2 11B Instruct | b-instruct-vmeta.llama3-2-11 10:128 k |  us-west-2  | 
| Meta | Llama 3.2 1B Instruct | b-instruct-vmeta.llama3-2-1 1:0:128 k |  us-west-2  | 
| Meta | Llama 3.2 3B Instruct | b-instruct-vmeta.llama3-2-3 1:0:128 k |  us-west-2  | 
| Meta | Llama 3.2 90B Instruct | b-instruct-vmeta.llama3-2-90 1:10:128 k |  us-west-2  | 
| Meta | Llama 3.3 70B Instruct | b-instruct-vmeta.llama3-3-70 1:10:128 k |  us-west-2  | 

Pour plus d'informations sur les hyperparamètres de personnalisation des modèles pour chaque modèle, consultez[Hyperparamètres du modèle personnalisé](custom-models-hp.md).

# Préparez les données pour affiner vos modèles
<a name="model-customization-prepare"></a>

Pour préparer des jeux de données d’entraînement et de validation pour votre modèle personnalisé, vous créez des fichiers `.jsonl` dans lesquels chaque ligne est un objet JSON correspondant à un enregistrement. Avant de commencer une tâche de personnalisation d’un modèle, vous devez au minimum préparer un jeu de données d’entraînement. Les fichiers que vous créez doivent respecter le format de la méthode de personnalisation et du modèle que vous avez choisis. Les enregistrements qu’ils contiennent doivent être conformes aux exigences de taille en fonction de votre modèle. 

Pour plus d’informations sur les exigences relatives aux modèles, consultez [Exigences de modèles pour les jeux de données d’entraînement et de validation](#model-training-validation-requirements). Pour connaître les quotas par défaut qui s’appliquent aux jeux de données d’entraînement et de validation utilisés pour personnaliser différents modèles, consultez les quotas **Somme des enregistrements d’entraînement et de validation** dans les [points de terminaison et quotas Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) dans Références générales AWS. 

La prise en charge d’un jeu de données de validation et le format de vos jeux de données d’entraînement et de validation dépendent des facteurs suivants. 
+ Type de tâche de personnalisation de réglage précis.
+ Modalités d’entrée et de sortie des données.

Pour plus d’informations sur le peaufinage des modèles Amazon Nova, consultez [Peaufinage des modèles Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

## Modalités prises en charge pour un réglage précis
<a name="model-customization-data-support"></a>

Les sections suivantes décrivent les différentes fonctionnalités de réglage précis prises en charge par chaque modèle, organisées selon leurs modalités d'entrée et de sortie. Pour plus d’informations sur le peaufinage des modèles Amazon Nova, consultez [Peaufinage des modèles Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Modèles **Text-to-Text  **

Text-to-Text les modèles peuvent être affinés pour diverses tâches basées sur du texte, y compris les applications conversationnelles et non conversationnelles. Pour plus d'informations sur la préparation des données pour affiner Text-to-Text les modèles, consultez[Préparer les données pour affiner text-to-text les modèles](#preparing-text-data). 

Les modèles non conversationnels suivants sont optimisés pour des tâches telles que la synthétisation, la traduction et la réponse aux questions :
+ Amazon Titan Text G1 - Express
+ Amazon Titan Text G1 - Lite
+ Amazon Titan Text Premier
+ Cohere Command
+ Cohere Command Light
+ Meta Llama 3.1 8B Instruct
+ Meta Llama 3.1 70B Instruct

Les modèles conversationnels suivants sont conçus pour les interactions à simples ou complexes. Si un modèle utilise l’API Converse, votre jeu de données de peaufinage doit suivre le format de message de l’API Converse et inclure les messages du système, de l’utilisateur et de l’assistant. Pour obtenir des exemples, consultez [Préparer les données pour affiner text-to-text les modèles](#preparing-text-data). Pour plus d’informations sur les opérations d’API Converse, consultez [Mener une conversation avec les opérations d’API Converse](conversation-inference.md).
+ Anthropic Claude 3 Haiku
+ Meta Llama 3.2 1B Instruct (format de l’API Converse)
+ Meta Llama 3.2 3B Instruct (format de l’API Converse)
+ Meta Llama 3.2 11B Instruct Vision (format de l’API Converse)
+ Meta Llama 3.2 90B Instruct Vision (format de l’API Converse)
+ Meta Llama 3.3 70B Vision Instruct (format de l’API Converse)

**Text-Image-to-Text et Text-to-Image modèles** S

Les modèles suivants permettent un peaufinage pour la génération d’images et le traitement des images de texte. Ces modèles traitent ou génèrent des images sur la base d’entrées textuelles, ou génèrent du texte sur la base d’entrées textuelles et d’images. Pour plus d'informations sur la préparation des données pour le réglage fin Text-Image-to-Text et Text-to-Image les modèles de modèles, voir[Préparation des données pour optimiser les modèles de traitement d’image et de texte](#preparing-image-text-data).
+ Amazon Titan Image Generator G1 V1
+ Meta Llama 3.2 11B Instruct Vision
+ Meta Llama 3.2 90B Instruct Vision
+ Meta Llama 3.3 70B Vision Instruct

**Image à vectorisation**

Les modèles suivants permettent d’optimiser des tâches telles que la classification et l’extraction. Ces modèles génèrent des représentations numériques (vectorisations) à partir des entrées d’image. Pour plus d'informations sur la préparation des données pour affiner Image-to-Embeddings les modèles, consultez[Préparation des données pour optimiser la génération d’images et les modèles de vectorisation](#preparing-image-generation-data).
+ Amazon Titan Multimodal Embeddings G1
+ Amazon Titan Image Generator G1 V1

## Exigences de modèles pour les jeux de données d’entraînement et de validation
<a name="model-training-validation-requirements"></a>

Les sections suivantes répertorient les exigences pour les jeux de données d’entraînement et de validation pour un modèle. Pour plus d’informations sur les contraintes des jeux de données pour les modèles Amazon Nova, consultez [Peaufinage des modèles Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

### Amazon Titan Text Premier
<a name="quotas-cm-titan-premier"></a>


****  

| Description | Maximum (peaufinage) | 
| --- | --- | 
| Somme des jetons d'entrée et de sortie lorsque la taille du lot est égale à 1 | 4 096 | 
| Somme des jetons d’entrée et de sortie lorsque la taille du lot est égale à 2, 3 ou 4 | N/A | 
| Quota de caractères par échantillon dans le jeu de données | Quota de jetons x 6 (estimé) | 
| Taille de fichier de jeu de données d'entraînement | 1 Go | 
| Taille de fichier de jeu de données de validation | 100 Mo | 

### Amazon Titan Text G1 - Express
<a name="quotas-cm-titan-text"></a>


****  

| Description | Maximum (peaufinage) | 
| --- | --- | 
| Somme des jetons d'entrée et de sortie lorsque la taille du lot est égale à 1 | 4 096 | 
| Somme des jetons d’entrée et de sortie lorsque la taille du lot est égale à 2, 3 ou 4 | 2 048 | 
| Quota de caractères par échantillon dans le jeu de données | Quota de jetons x 6 (estimé) | 
| Taille de fichier de jeu de données d'entraînement | 1 Go | 
| Taille de fichier de jeu de données de validation | 100 Mo | 

### Amazon Titan Text G1 - Lite
<a name="quotas-cm-titan-text-lite"></a>


****  

| Description | Maximum (peaufinage) | 
| --- | --- | 
| Somme des jetons d’entrée et de sortie lorsque la taille du lot est égale à 1 ou 2 | 4 096 | 
| Somme des jetons d’entrée et de sortie lorsque la taille du lot est égale à 3, 4, 5 ou 6 | 2 048 | 
| Quota de caractères par échantillon dans le jeu de données | Quota de jetons x 6 (estimé) | 
| Taille de fichier de jeu de données d'entraînement | 1 Go | 
| Taille de fichier de jeu de données de validation | 100 Mo | 

### Amazon Titan Image Generator G1 V1
<a name="quotas-cm-titan-image"></a>


****  

| Description | Minimum (peaufinage) | Maximum (peaufinage) | 
| --- | --- | --- | 
| Longueur de l’invite de texte dans l’échantillon d’entraînement, en caractères | 3 | 1,024 | 
| Enregistrements dans un jeu de données d’entraînement | 5 | 10 000 | 
| Taille de l’image d’entrée | 0 | 50 Mo | 
| Hauteur de l’image d’entrée en pixels | 512 | 4 096 | 
| Largeur de l’image d’entrée en pixels | 512 | 4 096 | 
| Nombre total de pixels de l’image d’entrée | 0 | 12 582 912 | 
| Proportion de l’image d’entrée | 1:4 | 4:1 | 

### Amazon Titan Multimodal Embeddings G1
<a name="quotas-cm-titan-mm-embed"></a>


****  

| Description | Minimum (peaufinage) | Maximum (peaufinage) | 
| --- | --- | --- | 
| Longueur de l’invite de texte dans l’échantillon d’entraînement, en caractères | 0 | 2 560 | 
| Enregistrements d’un jeu de données d’entraînement | 1 000 | 500 000 | 
| Taille de l’image d’entrée | 0 | 5 Mo | 
| Hauteur de l’image d’entrée en pixels | 128 | 4096 | 
| Largeur de l’image d’entrée en pixels | 128 | 4096 | 
| Nombre total de pixels de l’image d’entrée | 0 | 12 528 912 | 
| Proportion de l’image d’entrée | 1:4 | 4:1 | 

### Meta Llama 3.1
<a name="quotas-cm-meta-llama-3-1"></a>


****  

| Description | Minimum (peaufinage) | Maximum (peaufinage) | 
| --- | --- | --- | 
| Jetons d’entrée | 0 | 16,000 | 
| Jetons de sortie | 0 | 16,000 | 
| Quota de caractères par échantillon dans le jeu de données | 0 | Quota de jetons x 6 (estimé) | 
| Somme des jetons d’entrée et de sortie | 0 | 16,000 | 
| Somme des enregistrements d’entraînement et de validation | 100 | 10 000 (ajustable à l’aide des quotas de service) | 

### Meta Llama 3.2
<a name="quotas-cm-meta-llama-3-2"></a>

Les formats d’image pris en charge pour Meta Llama-3.2 11B Vision Instruct et Meta Llama-3.2 90B Vision Instruct incluent : `gif`, `jpeg`, `png` et `webp`. Pour estimer la image-to-token conversion lors du réglage fin de ces modèles, vous pouvez utiliser cette formule comme approximation :`Tokens = min(2, max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601`. Les images sont converties en environ 1 601 à 6 404 jetons en fonction de leur taille.


****  

| Description | Minimum (peaufinage) | Maximum (peaufinage) | 
| --- | --- | --- | 
| Somme des jetons d’entrée et de sortie | 0 | 16 000 (10 000 pour Meta Llama 3.2 90B) | 
| Somme des enregistrements d’entraînement et de validation | 100 | 10 000 (ajustable à l’aide des quotas de service) | 
| Taille de l’image d’entrée (pour les modèles Meta Llama 11B and 90B instruct) | 0 | 10 Mo | 
| Hauteur de l’image d’entrée en pixels pour les modèles Meta Llama 11B and 90B instruct | 10 | 8192 | 
| Largeur de l’image d’entrée en pixels pour les modèles Meta Llama 11B and 90B90B instruct | 10 | 8192 | 

### Meta Llama 3.3
<a name="quotas-cm-meta-llama-3-3"></a>


****  

| Description | Minimum (peaufinage) | Maximum (peaufinage) | 
| --- | --- | --- | 
| Somme des jetons d’entrée et de sortie | 0 | 16000 | 
| Somme des enregistrements d’entraînement et de validation | 100 | 10 000 (ajustable à l’aide des quotas de service) | 

### CohereCommand
<a name="quotas-cm-cohere-command"></a>


****  

| Description | Maximum (peaufinage) | 
| --- | --- | 
| Jetons d’entrée | 4 096 | 
| Jetons de sortie | 2 048 | 
| Quota de caractères par échantillon dans le jeu de données | Quota de jetons x 6 (estimé) | 
| Enregistrements d’un jeu de données d’entraînement | 10 000 | 
| Enregistrements dans un jeu de données de validation | 1 000 | 

### Anthropic Claude 3 Haiku
<a name="anthropic-claude-3-haiku"></a>


****  

| Description | Maximum (peaufinage) | 
| --- | --- | 
| Nombre minimum d’enregistrements | 32 | 
| Nombre maximum d’enregistrements d’entraînement | 10 000 | 
| Nombre maximum d’enregistrements de validation | 1 000 | 
| Nombre total maximum d’enregistrements | 10 000 (ajustable à l’aide des quotas de service) | 
| Nombre maximal de jetons | 32 000 | 
| Taille maximale de jeu de données d’entraînement | 10 Go | 
| Taille maximale du jeu de données de validation | 1 Go | 

## Préparer les données pour affiner text-to-text les modèles
<a name="preparing-text-data"></a>

**Note**  
Pour plus d’informations sur le peaufinage des modèles Amazon Nova, consultez [Peaufinage des modèles Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Pour affiner les text-to-text modèles, chaque objet JSON est un exemple contenant des champs structurés conçus pour guider le modèle vers la génération de la sortie textuelle souhaitée en fonction d'une invite textuelle fournie. Le format des données varie en fonction du cas d’utilisation, généralement classé en cas d’utilisation non conversationnelle et conversationnelle.

------
#### [ Non-conversational tasks ]

Les tâches non conversationnelles impliquent de générer une sortie unique pour une entrée donnée. Chaque échantillon de jeu de données inclut un champ `prompt` contenant le texte d’entrée et un champ `completion` contenant le résultat attendu. Ce format prend en charge un éventail de tâches telles que la réponse aux questions, la synthèse, la traduction, la complétion de texte et l’extraction d’informations.

Exemple de format

```
{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."}
{"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}
```

Utilisez environ 6 caractères par jeton pour estimer le nombre de jetons nécessaires à la planification de la taille du jeu de données.

------
#### [ Converse API format (Single turn and Multi turn) ]

Pour utiliser l’API Converse, vous devez appeler les opérations `Converse` ou `ConverseStream` pour envoyer des messages à un modèle. Pour appeler `Converse`, vous devez disposer de l’autorisation sur l’opération `bedrock:InvokeModel`. Pour appeler `ConverseStream`, vous devez disposer de l’autorisation sur l’opération `bedrock:InvokeModelWithResponseStream`. Pour plus d’informations, consultez [Utilisation de l’API Converse](conversation-inference-call.md). Pour plus d’informations sur les opérations d’API Converse, consultez [Mener une conversation avec les opérations d’API Converse](conversation-inference.md).

Exemple de format

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [
        {
            "text": "You are a digital assistant with a friendly personality"
        }
    ],
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What is the capital of Mars?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
                {
                    "text": "Mars does not have a capital. Perhaps it will one day."
                }
            ]
        }
    ]
}
```

------
#### [ Anthropic Claude 3 Haiku: Single-turn conversations ]

Les tâches conversationnelles simples impliquent des échanges isolés, le modèle générant une réponse basée uniquement sur l’entrée actuelle de l’utilisateur sans tenir compte du contexte antérieur. Chaque exemple de jeu de données utilise un tableau de messages, avec des rôles alternés de `user` et `assistant`.

Format

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
```

Exemple

```
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
```

------
#### [ Anthropic Claude 3 Haiku: Multi-turn conversations ]

Les tâches conversationnelles complexes impliquent des dialogues étendus dans lesquels le modèle doit générer des réponses tout en préservant le contexte des échanges précédents. Ce format reflète la nature dynamique des tâches interactives, telles que le support client ou les discussions complexes.

Format

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
```

Exemple

```
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}  
```

------

## Préparation des données pour optimiser les modèles de traitement d’image et de texte
<a name="preparing-image-text-data"></a>

**Note**  
Pour plus d’informations sur le peaufinage des modèles Amazon Nova, consultez [Peaufinage des modèles Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Pour affiner les image-text-to-text modèles, chaque objet JSON est un exemple contenant une conversation structurée sous forme de `messages` tableau, composée d'objets JSON alternés représentant les entrées de l'utilisateur et les réponses de l'assistant. Les entrées de l’utilisateur peuvent inclure à la fois du texte et des images, tandis que les réponses de l’assistant sont toujours textuelles. Cette structure prend en charge les flux de conversation simple et complexe, ce qui permet au modèle de gérer efficacement diverses tâches. Les formats d’image pris en charge pour Meta Llama-3.2 11B Vision Instruct et Meta Llama-3.2 90B Vision Instruct incluent : `gif`, `jpeg`, `png` et `webp`.

Pour autoriser l’accès d’Amazon Bedrock aux fichiers d’images, ajoutez une politique IAM similaire à celle indiquée dans [Autorisations d’accès aux fichiers d’entraînement et de validation et d’écriture de fichiers de sortie dans S3](model-customization-iam-role.md#model-customization-iam-role-s3) au rôle de service de personnalisation du modèle Amazon Bedrock que vous avez configuré ou qui a été automatiquement configuré pour vous dans la console. Les chemins Amazon S3 que vous fournissez dans le jeu de données d’entraînement doivent se trouver dans des dossiers que vous spécifiez dans la politique.

**Conversations simples**

Chaque objet JSON pour les conversations simples se compose d’un message d’utilisateur et d’un message d’assistant. Le message d’utilisateur inclut un champ de rôle défini sur *utilisateur* et un champ *contenu* contenant un tableau avec un champ `type` (*texte* ou *image*) décrivant la modalité d’entrée. Pour les entrées de texte, le champ `content` inclut un champ `text` contenant la question ou l’invite de l’utilisateur. Pour les entrées d’image, le champ `content` spécifie le `format` de l’image (par exemple, *jpeg*, *png*) et sa `source` avec un `uri` pointant vers l’emplacement Amazon S3 de l’image. L’`uri` représente le chemin unique vers l’image stockée dans un compartiment Amazon S3, généralement au format `s3://<bucket-name>/<path-to-file>`. Le message d’assistant comprend un champ `role` défini sur *assistant* et un champ `content` contenant un tableau avec un champ `type` défini sur *texte* et un champ `text` contenant la réponse générée par l’assistant.

Exemple de format

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
    ]
}
```

**Conversations complexes**

Chaque objet JSON pour les conversations complexes contient une séquence de messages avec des rôles alternés, dans lesquels les messages d’utilisateur et les messages d’assistant sont structurés de manière cohérente pour permettre des échanges cohérents. Les messages d’utilisateur incluent un champ `role` défini sur *utilisateur* et un champ `content` qui décrit la modalité d’entrée. Pour les entrées de texte, le champ `content` inclut un champ `text` contenant la question ou le suivi de l’utilisateur, tandis que pour les entrées d’images, il indique l’image `format` et son `source` avec un `uri` pointant vers l’emplacement Amazon S3 de l’image. `uri`Il sert d'identifiant unique au format s3 ://<bucket-name>/< path-to-file > et permet au modèle d'accéder à l'image depuis le compartiment Amazon S3 désigné. Les messages d’assistant incluent un champ `role` défini sur *assistant* et un champ `content` contenant un tableau avec un champ `type` défini sur *texte* et un champ `text` contenant la réponse générée par l’assistant. Les conversations peuvent couvrir plusieurs échanges, ce qui permet à l’assistant de maintenir le contexte et de fournir des réponses cohérentes tout au long de la conversation.

Exemple de format

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        },
        {
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
        
    ]
}
```

## Préparation des données pour optimiser la génération d’images et les modèles de vectorisation
<a name="preparing-image-generation-data"></a>

**Note**  
Les modèles Amazon Nova ont des exigences de peaufinage différentes. Pour optimiser ces modèles, suivez les instructions de la section [Peaufinage des modèles Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Pour nos text-to-image image-to-embedding modèles, préparez un jeu de données d'entraînement. Les jeux de données de validation ne sont pas pris en charge. Chaque objet JSON est un échantillon contenant un élément `image-ref`, l’URI Amazon S3 d’une image et un élément `caption` qui peut être une invite pour cette image.

Les images doivent être au format JPEG ou PNG.

```
{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"}
{"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}
```

Voici un exemple d’élément :

```
{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}
```

Pour autoriser l’accès d’Amazon Bedrock aux fichiers d’images, ajoutez une politique IAM similaire à celle indiquée dans [Autorisations d’accès aux fichiers d’entraînement et de validation et d’écriture de fichiers de sortie dans S3](model-customization-iam-role.md#model-customization-iam-role-s3) au rôle de service de personnalisation du modèle Amazon Bedrock que vous avez configuré ou qui a été automatiquement configuré pour vous dans la console. Les chemins Amazon S3 que vous fournissez dans le jeu de données d’entraînement doivent se trouver dans des dossiers que vous spécifiez dans la politique.

# Ajustez les Amazon Nova modèles grâce à un réglage précis supervisé
<a name="nova-2-sft-data-prep"></a>

Amazon NovaLes données SFT 2.0 utilisent le même format d'API Converse que la Amazon Nova version 1.0, avec l'ajout de champs de contenu de raisonnement facultatifs. Pour les spécifications de format complètes, voir le [schéma [ReasoningContentBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ReasoningContentBlock.html)de l'API Converse](https://docs.aws.amazon.com/bedrock/latest/userguide/conversation-inference-call.html).

**Fonctionnalités prises en charge :**
+ **Types de saisie** : texte, image ou vidéo dans les blocs de contenu utilisateur
+ **Contenu de l'assistant** — Réponses sous forme de texte uniquement et contenu de raisonnement
+ **Composition du jeu** de données — Doit être homogène. Choisissez l'une des options suivantes : virages textuels uniquement, tournages texte\$1image ou texte\$1vidéo

**Important**  
Vous ne pouvez pas mélanger des images et des vidéos dans le même jeu de données ou sur différents tours.

**Limitations actuelles :**
+ **Utilisation des outils** — Bien que l'utilisation des outils soit prise en charge dans le format d'entrée, elle n'est actuellement pas prise en charge par Amazon Nova 2.0 SFT. L'ajout de sections d'outils peut entraîner l'échec de votre tâche.
+ **Contenu de raisonnement multimodal** — Bien que le format Converse prenne en charge le contenu de raisonnement basé sur des images, celui-ci n'est pas pris en charge par Amazon Nova 2.0 SFT.
+ **Ensembles de validation** — La fourniture d'un ensemble de validation peut être prise en charge via l'interface utilisateur mais ne le sera pas pendant la formation SFT.

**Formats multimédia pris en charge :**
+ **Images** — PNG, JPEG, GIF
+ **Vidéos** — MOV, MKV, MP4

## Exemples de formats de données
<a name="nova-2-sft-data-examples"></a>

------
#### [ Text-only ]

Cet exemple montre un format texte de base compatible avec Amazon Nova la version 1.0.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "text": "The closest country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Text with reasoning ]

Cet exemple montre du texte avec un contenu de raisonnement facultatif pour la Amazon Nova version 2.0.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I need to use my world knowledge of geography to answer this question"
            }
          }
        },
        {
          "text": "The closest country to Australia is New Zealand, located to the southeast across the Tasman Sea."
        }
      ]
    }
  ]
}
```

**Note**  
Actuellement, seul `reasoningText` est pris en charge au sein de`reasoningContent`. Le contenu du raisonnement multimodal n'est pas encore disponible.

------
#### [ Image \$1 text ]

Cet exemple montre comment inclure une entrée d'image dans du texte.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "image": {
            "format": "jpeg",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-image.jpg",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "Which country is highlighted in the image?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will determine the highlighted country by examining its location on the map and using my geographical knowledge"
            }
          }
        },
        {
          "text": "The highlighted country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Video \$1 text ]

Cet exemple montre comment inclure une entrée vidéo dans du texte.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "video": {
            "format": "mp4",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-video.mp4",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "What is shown in this video?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will analyze the video content to identify key elements"
            }
          }
        },
        {
          "text": "The video shows a map with New Zealand highlighted"
        }
      ]
    }
  ]
}
```

------

## Contenu du raisonnement
<a name="nova-2-reasoning-modes"></a>

Le contenu du raisonnement (également appelé chain-of-thought) capture les étapes de réflexion intermédiaires du modèle avant de générer une réponse finale. À votre `assistant` tour, utilisez le `reasoningContent` champ pour inclure ces traces de raisonnement.

**Comment est calculée la perte :**
+ **Avec un contenu de raisonnement** — La perte d'entraînement inclut à la fois des jetons de raisonnement et des jetons de résultat final
+ **Sans raisonnement, contenu** : la perte d'entraînement est calculée uniquement sur les jetons de sortie finaux

**Quand activer le mode raisonnement :** définissez `reasoning_enabled: true` dans votre configuration d'entraînement le moment où vous souhaitez que le modèle génère des jetons de réflexion avant de produire les résultats finaux ou si vous avez besoin de meilleures performances sur des tâches de raisonnement complexes. Définissez le `reasoning_enabled: false` moment où vous vous entraînez sur des tâches simples qui ne nécessitent pas d'étapes de raisonnement explicites.

**Note**  
Vous pouvez activer le mode raisonnement, que vos données d'entraînement contiennent ou non du contenu de raisonnement. Cependant, il est recommandé d'inclure des traces de raisonnement dans vos données d'entraînement afin que le modèle puisse tirer des leçons de ces exemples et améliorer la qualité du raisonnement.

**Directives de mise en forme :**
+ Utilisez du texte brut pour raisonner le contenu.
+ Évitez les balises de balisage telles que `<thinking>` et `</thinking>` sauf si cela est spécifiquement requis par votre tâche.
+ Assurez-vous que le contenu du raisonnement est clair et pertinent pour le processus de résolution des problèmes.

**Le contenu du raisonnement efficace doit inclure :**
+ Réflexions et analyses intermédiaires
+ Déductions logiques et étapes d'inférence
+ Step-by-step approches de résolution de problèmes
+ Liens explicites entre les étapes et les conclusions

Si votre jeu de données ne contient pas de traces de raisonnement, vous pouvez les créer à l'aide d'un modèle capable de raisonner tel que Nova Premier. Fournissez vos paires d'entrées-sorties au modèle et capturez son processus de raisonnement pour créer un ensemble de données augmenté par le raisonnement.

## Directives pour la préparation des jeux
<a name="nova-2-dataset-preparation"></a>

Le tableau suivant fournit des instructions pour préparer votre jeu de données d'entraînement.


**Directives pour la préparation des jeux**  

| Ligne directrice | Description | 
| --- | --- | 
| Taille et qualité |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Diversité |  Incluez divers exemples qui permettent d'effectuer les opérations suivantes : [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Formatage de sortie |  Spécifiez clairement le format de sortie souhaité dans les réponses de l'assistant. Les exemples incluent les structures JSON, les tableaux, le format CSV ou les formats personnalisés spécifiques à votre application.  | 
| Conversations complexes |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Liste de contrôle de qualité |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/fr_fr/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 

# Hyperparamètres du modèle personnalisé
<a name="custom-models-hp"></a>

Le contenu de référence suivant couvre les hyperparamètres disponibles pour l’entraînement de chaque modèle personnalisé Amazon Bedrock.

Un hyperparamètre est un paramètre qui contrôle le processus d'apprentissage, tel que le taux d'apprentissage ou le nombre d'époques. Vous définissez des hyperparamètres pour l'entraînement de modèles personnalisés lorsque vous [soumettez](model-customization-submit.md) la tâche de réglage fin à l'aide de la console Amazon Bedrock ou en appelant l'opération [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)API.

## Hyperparamètres de personnalisation du modèle de compréhension Amazon Nova
<a name="cm-hp-nova-mm"></a>

Les modèles Amazon Nova Lite, Amazon Nova Micro et Amazon Nova Pro prennent en charge les trois hyperparamètres suivants pour la personnalisation du modèle. Pour plus d’informations, consultez [Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation](custom-models.md).

 Pour plus d’informations sur le peaufinage des modèles Amazon Nova, consultez [Peaufinage des modèles Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Type | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | --- | 
| Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | entier | 1 | 5 | 2 | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | float | 1,00E-6 | 1,00E-4 | 1.00E-5 | 
| Étapes de préparation du taux d’apprentissage | learningRateWarmupÉtapes | Nombre d’itérations au cours desquelles le taux d’apprentissage est progressivement augmenté jusqu’au taux spécifié | entier | 0 | 100 | 10 | 

La valeur d’époque par défaut est 2, ce qui fonctionne dans la plupart des cas. En général, les grands jeux de données nécessitent moins d’époques pour converger, tandis que les jeux de données plus petits nécessitent plus d’époques pour converger. Une convergence plus rapide peut également être atteinte en augmentant le taux d’apprentissage, mais cela est moins souhaitable, car cela pourrait entraîner une instabilité de la formation lors de la convergence. Nous vous recommandons de commencer par les hyperparamètres par défaut, qui sont basés sur notre évaluation de tâches de complexité et de taille de données différentes.

Le taux d’apprentissage augmentera progressivement jusqu’à la valeur définie pendant la préparation. Par conséquent, nous vous recommandons d’éviter une valeur de préparation élevée lorsque l’échantillon d’apprentissage est petit, car le taux d’apprentissage risque de ne jamais atteindre la valeur définie pendant le processus d’entraînement. Nous vous recommandons de définir les étapes de préparation en divisant la taille du jeu de données par 640 pour Amazon Nova Micro, 160 pour Amazon Nova Lite et 320 pour Amazon Nova Pro.

## Hyperparamètres de personnalisation des modèles Amazon Nova Canvas
<a name="cm-hp-nova-canvas"></a>

Le modèle Amazon Nova Canvas prend en charge les hyperparamètres suivants pour la personnalisation du modèle.


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | 
| Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | 8 | 192 | 8 | 
| Étapes | stepCount | Nombre de fois que le modèle est exposé à chaque lot | 10 | 20 000 | 500 | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | 1.00E-7 | 1,00E-4 | 1.00E-5 | 

## Hyperparamètres de personnalisation des modèles Amazon Titan Text
<a name="cm-hp-titan-text"></a>

Le modèle Amazon Titan Text Premier prend en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Type | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | --- | 
| Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | entier | 1 | 5 | 2 | 
| Taille du lot (micro) | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | entier | 1 | 1 | 1 | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | float | 1,00E-07 | 1,00E-05 | 1,00E-06 | 
| Étapes de préparation du taux d’apprentissage | learningRateWarmupÉtapes | Nombre d’itérations au cours desquelles le taux d’apprentissage est progressivement augmenté jusqu’au taux spécifié | entier | 0 | 20 | 5 | 

Les modèles Amazon Titan Text, tels que Lite et Express, prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Type | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | --- | 
| Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | entier | 1 | 10 | 5 | 
| Taille du lot (micro) | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | entier | 1 | 64 | 1 | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | float | 0.0 | 1 | 1.00E-5 | 
| Étapes de préparation du taux d’apprentissage | learningRateWarmupÉtapes | Nombre d’itérations au cours desquelles le taux d’apprentissage est progressivement augmenté jusqu’au taux spécifié | entier | 0 | 250 | 5 | 

## Hyperparamètres de personnalisation des modèles de générateur d’images Amazon Titan G1
<a name="cm-hp-titan-image"></a>

Le modèle de générateur d’images Amazon Titan G1 prend en charge les hyperparamètres suivants pour la personnalisation du modèle.

**Note**  
`stepCount` n’a aucune valeur par défaut et doit être spécifiée. `stepCount` soutient la valeur `auto`. `auto` donne la priorité aux performances du modèle par rapport aux coûts d’entraînement en déterminant automatiquement un chiffre en fonction de la taille de votre jeu de données. Le coût des tâches d’entraînement dépend du nombre que `auto` détermine. Pour comprendre comment le coût des tâches est calculé et pour consulter des exemples, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | 
| Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | 8 | 192 | 8 | 
| Étapes | stepCount | Nombre de fois que le modèle est exposé à chaque lot | 10 | 40 000 | N/A | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | 1.00E-7 | 1 | 1.00E-5 | 

## Hyperparamètres de personnalisation Amazon Titan Multimodal Embeddings G1
<a name="cm-hp-titan-mm"></a>

Le modèle Amazon Titan Multimodal Embeddings G1 prend en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).

**Note**  
`epochCount` n’a aucune valeur par défaut et doit être spécifiée. `epochCount` soutient la valeur `Auto`. `Auto` donne la priorité aux performances du modèle par rapport aux coûts d’entraînement en déterminant automatiquement un chiffre en fonction de la taille de votre jeu de données. Le coût des tâches d’entraînement dépend du nombre que `Auto` détermine. Pour comprendre comment le coût des tâches est calculé et pour consulter des exemples, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Type | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | --- | 
| Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | entier | 1 | 100 | N/A | 
| Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | entier | 256 | 9 216 | 576 | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | float | 5,00E-8 | 1 | 5,00E-5 | 

## Hyperparamètres de personnalisation des modèles Anthropic Claude 3
<a name="cm-hp-anth-claude-3"></a>

Les modèles Anthropic Claude 3 prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Nom de la console | Nom d'API | Définition | Par défaut | Minimum | Maximum | 
| --- | --- | --- | --- | --- | --- | 
| Nombre d’époques | epochCount | Nombre d’itérations maximum dans l’ensemble du jeu de données d’entraînement | 2 | 1 | 10 | 
| Taille de lot  | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | 32 | 4 | 256 | 
| Multiplicateur du taux d’apprentissage | learningRateMultiplier | Multiplicateur qui influence la fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | 1 | 0.1 | 2 | 
| Seuil d’arrêt anticipé | earlyStoppingThreshold | Amélioration minimale des pertes de validation requise pour empêcher l’arrêt prématuré du processus d’entraînement | 0.001 | 0 | 0.1 | 
| Patience d’arrêt anticipé | earlyStoppingPatience | Tolérance de stagnation de la métrique de perte de validation avant l’arrêt du processus d’entraînement | 2 | 1 | 10 | 

## Hyperparamètres de personnalisation des modèles Cohere Command
<a name="cm-hp-cohere-command"></a>

Les modèles Cohere Command et Cohere Command Light prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Pour de plus amples informations, veuillez consulter [Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation](custom-models.md).

 Pour plus d'informations sur le réglage précis Cohere des modèles, consultez la Cohere documentation sur le [https://docs.cohere.com/docs/réglage précis](https://docs.cohere.com/docs/fine-tuning).

**Note**  
Le quota `epochCount` est réglable.


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Type | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | --- | 
| Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | entier | 1 | 100 | 1 | 
| Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | entier | 8 | 8 (Command)32 (Light) | 8 | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot. Si vous utilisez un jeu de données de validation, nous vous recommandons de ne pas fournir de valeur pour learningRate. | float | 5,00E-6 | 0.1 | 1.00E-5 | 
| Seuil d’arrêt anticipé | earlyStoppingThreshold | Amélioration minimale des pertes requise pour empêcher l’arrêt prématuré du processus d’entraînement. | float | 0 | 0.1 | 0,01 | 
| Patience d’arrêt anticipé | earlyStoppingPatience | Tolérance de stagnation de la métrique de perte avant l’arrêt du processus d’entraînement. | entier | 1 | 10  | 6 | 
| Pourcentage d’évaluation | evalPercentage |  Pourcentage du jeu de données alloué à l’évaluation des modèles, si vous ne fournissez pas de jeu de données de validation distinct.  | float | 5 | 50 | 20 | 

## Hyperparamètres de personnalisation des modèles Meta Llama 3.1
<a name="cm-hp-meta-llama31"></a>

Les modèles Meta Llama 3.1 8B et 70B prennent en charge les hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Pour de plus amples informations, veuillez consulter [Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation](custom-models.md).

 Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation sur [https://ai.meta.com/llama/get-started/ \$1fine -tuning](https://ai.meta.com/llama/get-started/#fine-tuning).

**Note**  
Le quota `epochCount` est réglable.


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | 
| Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | 1 | 10 | 5 | 
| Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | 1 | 1 | 1 | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | 5,00E-6 | 0.1 | 1,00E-4 | 

## Hyperparamètres de personnalisation des modèles Meta Llama 3.2
<a name="cm-hp-meta-llama32"></a>

Les modèles Meta Llama 3.2 1B, 3B, 11B et 90B prennent en charge les trois hyperparamètres suivants pour la personnalisation du modèle. Le nombre d’époques que vous spécifiez augmente le coût de personnalisation de votre modèle en traitant davantage de jetons. Chaque époque traite l’intégralité du jeu de données d’entraînement une seule fois. Pour plus d’informations sur la tarification, consultez [Tarification d’Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Pour de plus amples informations, veuillez consulter [Personnalisation de votre modèle pour améliorer ses performances en fonction de votre cas d’utilisation](custom-models.md).

 Pour plus d'informations sur le réglage précis des modèles Meta Llama, consultez la Meta documentation sur [https://ai.meta.com/llama/get-started/ \$1fine -tuning](https://ai.meta.com/llama/get-started/#fine-tuning).


****  

| Hyperparamètre (console) | Hyperparamètre (API) | Définition | Minimum | Maximum | Par défaut | 
| --- | --- | --- | --- | --- | --- | 
| Époques | epochCount | Nombre d’itérations dans l’ensemble du jeu de données d’entraînement | 1 | 10 | 5 | 
| Taille de lot | batchSize | Nombre d’échantillons traités avant la mise à jour des paramètres du modèle | 1 | 1 | 1 | 
| Taux d’apprentissage | learningRate | Fréquence à laquelle les paramètres du modèle sont mis à jour après chaque lot | 5,00E-6 | 0.1 | 1,00E-4 | 

# Soumettre une tâche de personnalisation du modèle à peaufiner
<a name="model-customization-submit"></a>

Vous pouvez créer un modèle personnalisé en effectuant des réglages précis dans la console ou l'API Amazon Bedrock. Vous pouvez optimiser davantage un modèle personnalisé existant. La tâche de personnalisation peut prendre plusieurs heures. La durée de la tâche dépend de la taille des données d’entraînement (nombre d’enregistrements, jetons d’entrée et jetons de sortie), du nombre d’époques et de la taille du lot.

## Conditions préalables
<a name="submit-model-customization-job-prerequisites"></a>
+ Créez un rôle de service Gestion des identités et des accès AWS (IAM) pour accéder au compartiment S3 dans lequel vous souhaitez stocker les données de formation et de validation relatives à la personnalisation de votre modèle. Vous pouvez créer ce rôle automatiquement à l'aide du AWS Management Console ou manuellement. Pour plus d’informations sur l’option manuelle, consultez [Création d’un rôle de service IAM pour la personnalisation du modèle](custom-model-job-access-security.md#custom-model-job-service-role).
+ (Facultatif) Chiffrez les données d’entrée et de sortie, votre tâche de personnalisation ou les demandes d’inférence adressées à des modèles personnalisés. Pour de plus amples informations, veuillez consulter [Chiffrement de modèles personnalisés](encryption-custom-job.md).
+ (Facultatif) Créez un cloud privé virtuel (VPC) pour protéger votre tâche de personnalisation. Pour de plus amples informations, veuillez consulter [(Facultatif) Protection de vos tâches de personnalisation de modèles à l’aide d’un VPC](custom-model-job-access-security.md#vpc-model-customization).

## Envoi de votre tâche
<a name="submit-model-customization-job-how-to"></a>

Choisissez l’onglet correspondant à votre méthode préférée, puis suivez les étapes :

------
#### [ Console ]

Pour soumettre une tâche de personnalisation du modèle dans la console, suivez les étapes ci-dessous.

1. Connectez-vous au AWS Management Console avec une identité IAM autorisée à utiliser la console Amazon Bedrock. Ouvrez ensuite la console Amazon Bedrock à l'adresse [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Dans le volet de navigation de gauche, choisissez **Modèles personnalisés** sous **Régler**.

1. Dans l'onglet **Modèles**, choisissez **Personnaliser le modèle**, puis **Créer une tâche de réglage précis**.

1. Dans la section **Détails du modèle**, procédez comme suit :

   1. Choisissez le modèle que vous souhaitez personnaliser avec vos propres données et nommez le modèle obtenu. Vous pouvez choisir un modèle de fondation ou un modèle déjà personnalisé (optimisé ou distillé) comme modèle de base.

   1. (Facultatif) Par défaut, Amazon Bedrock chiffre votre modèle à l’aide d’une clé détenue et gérée par AWS. Pour utiliser une [clé KMS personnalisée](encryption-custom-job.md), sélectionnez **Modèle de chiffrement** et choisissez une clé.

   1. (Facultatif) Pour associer des [balises](tagging.md) au modèle personnalisé, développez la section **Balises** et sélectionnez **Ajouter une nouvelle balise**.

1. Dans la section **Configuration de la tâche**, entrez un nom pour la tâche et ajoutez les balises à associer à la tâche.

1. (Facultatif) Pour utiliser un [cloud privé virtuel (VPC) afin de protéger vos données d’entraînement et votre tâche de personnalisation](custom-model-job-access-security.md#vpc-model-customization), sélectionnez un VPC contenant les données d’entrée et de sortie des sites Amazon S3, ses sous-réseaux et ses groupes de sécurité dans la section des **paramètres du VPC.**
**Note**  
Si vous incluez une configuration VPC, la console ne peut pas créer de rôle de service pour cette tâche. [Créez un rôle de service personnalisé](model-customization-iam-role.md) et ajoutez des autorisations similaires à l’exemple décrit dans [Association des autorisations VPC à un rôle de personnalisation du modèle](custom-model-job-access-security.md#vpc-data-access-role).

1. Dans la section **Données d’entrée**, sélectionnez l’emplacement S3 du fichier du jeu de données d’entraînement et, le cas échéant, le fichier du jeu de données de validation.

1. Dans la section **Hyperparamètres**, entrez les valeurs des [hyperparamètres](custom-models-hp.md) à utiliser lors de l’entraînement.

1. Dans la section **Données de sortie**, entrez l’emplacement Amazon S3 dans lequel Amazon Bedrock doit enregistrer la sortie de la tâche. Amazon Bedrock stocke les métriques de perte d’entraînement et de perte de validation pour chaque époque dans des fichiers séparés à l’emplacement que vous spécifiez.

1. Dans la section **Accès au service**, sélectionnez l’une des options suivantes : 
   + **Utiliser un rôle de service existant** : sélectionnez un rôle de service dans la liste déroulante. Pour plus d’informations sur la configuration d’un rôle personnalisé avec les autorisations appropriées, consultez [Création d’un rôle de service pour la personnalisation du modèle](model-customization-iam-role.md).
   + **Créer et utiliser une nouvelle fonction du service** : entrez un nom pour la fonction du service.

1. Choisissez **Affiner le modèle** pour commencer le travail.

------
#### [ API ]

**Demande**

Envoyez une demande [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)(voir le lien pour les formats de demande et de réponse et les détails des champs) avec un point de [terminaison du plan de contrôle Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) pour soumettre une tâche de personnalisation de modèle. Au minimum, vous devez renseigner les champs suivants.
+ `roleArn` : ARN du rôle de service avec les autorisations pour personnaliser les modèles. Amazon Bedrock peut créer automatiquement un rôle avec les autorisations appropriées si vous utilisez la console, ou vous pouvez créer un rôle personnalisé en suivant les étapes décrites dans [Création d’un rôle de service pour la personnalisation du modèle](model-customization-iam-role.md).
**Note**  
Si vous incluez un champ `vpcConfig`, assurez-vous que le rôle dispose des autorisations appropriées pour accéder au VPC. Pour obtenir un exemple, consultez [Association des autorisations VPC à un rôle de personnalisation du modèle](custom-model-job-access-security.md#vpc-data-access-role).
+ `baseModelIdentifier` : [ID du modèle](models-supported.md) ou ARN du modèle de fondation ou du modèle précédemment personnalisé (optimisé ou distillé) à personnaliser.
+ `customModelName` : nom à donner au nouveau modèle personnalisé.
+ `jobName` : nom à donner à la tâche d’entraînement.
+ `hyperParameters` : [hyperparamètres](custom-models-hp.md) qui affectent le processus de personnalisation du modèle.
+ `trainingDataConfig` : objet contenant l’URI Amazon S3 du jeu de données d’entraînement. Selon la méthode et le modèle de personnalisation, vous pouvez également inclure un `validationDataConfig`. Pour plus d’informations sur la préparation des jeux de données, consultez [Préparez les données pour affiner vos modèles](model-customization-prepare.md).
+ `validationDataconfig` : objet contenant l’URI Amazon S3 du jeu de données de validation.
+ `outputDataConfig` : objet contenant l’URI Amazon S3 dans lequel écrire les données de sortie.

Si vous ne le spécifiez pas le `customizationType`, la méthode de personnalisation du modèle est par défaut `FINE_TUNING`.

Pour éviter que la demande ne soit traitée plusieurs fois, incluez un `clientRequestToken`.

Vous pouvez inclure les champs facultatifs suivants pour des configurations supplémentaires.
+ `jobTags` and/or `customModelTags`— Associez des [balises](tagging.md) à la tâche de personnalisation ou au modèle personnalisé qui en résulte.
+ `customModelKmsKeyId` : incluez une [clé KMS personnalisée](encryption-custom-job.md) pour chiffrer votre modèle personnalisé.
+ `vpcConfig` : incluez la configuration d’un [cloud privé virtuel (VPC) afin de protéger vos données d’entraînement et votre tâche de personnalisation](custom-model-job-access-security.md#vpc-model-customization).

**Réponse**

La réponse renvoie un élément `jobArn` que vous pouvez utiliser pour [surveiller](model-customization-monitor.md) ou [arrêter](model-customization-stop.md) la tâche.

[Consulter des exemples de code](model-customization-code-samples.md)

------