

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Personalizza un modello con messa a punto in Amazon Bedrock
<a name="custom-model-fine-tuning"></a>

Con Amazon Bedrock, puoi addestrare un modello di base per migliorare le prestazioni su attività specifiche (noto come fine-tuning). Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta [Eseguire il fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

## Regioni e modelli supportati per la messa a punto
<a name="custom-model-supported"></a>

La tabella seguente mostra i modelli di base che è possibile ottimizzare:


| Provider | Modello | ID modello | Supporto per modelli a regione singola | 
| --- | --- | --- | --- | 
| Amazon | Nova 2 Lite | amazon.nova-2-lite-v1:0:256k |  us-east-1  | 
| Amazon | Nova Canvas | amazzone. nova-canvas-v1:0 |  us-east-1  | 
| Amazon | Nova Lite | amazzone. nova-lite-v1:0:300 k |  us-east-1  | 
| Amazon | Nova Micro | amazzone. nova-micro-v1:01:28 K |  us-east-1  | 
| Amazon | Nova Pro | amazzone. nova-pro-v1:0:300 k |  us-east-1  | 
| Amazon | Titan Image Generator G1 v2 | amazzone. titan-image-generator-v2:0 |  us-east-1 us-west-2  | 
| Amazon | Titan Multimodal Embeddings G1 | amazzone. titan-embed-image-v1:0 |  us-east-1 us-west-2  | 
| Anthropic | Claude 3 Haiku | anthropic.claude-3-haiku-20240307-v1:0:200k |  us-west-2  | 
| Meta | Llama 3.1 70B Instruct | b-instruct-vmeta.llama3-1-70 1:0:128 k |  us-west-2  | 
| Meta | Llama 3.1 8B Instruct | meta.llama3-1-8 1:0:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 11B Instruct | meta.llama3-2-11 1:0:128 k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 1B Instruct | meta.llama3-2-1 1:0:128k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 3B Instruct | meta.llama3-2-3 1:0:128k b-instruct-v |  us-west-2  | 
| Meta | Llama 3.2 90B Instruct | meta.llama3-2-90 b-instruct-v 1:0:128k |  us-west-2  | 
| Meta | Llama 3.3 70B Instruct | meta.llama3-3-70 1:0:128 k b-instruct-v |  us-west-2  | 

Per informazioni sugli iperparametri di personalizzazione del modello per ogni modello, vedere. [Iperparametri del modello personalizzato](custom-models-hp.md)

# Prepara i dati per perfezionare i tuoi modelli
<a name="model-customization-prepare"></a>

Per preparare i set di dati di addestramento e convalida per il modello personalizzato, crea file `.jsonl`, ogni riga dei quali è un oggetto JSON corrispondente a un record. Per poter avviare un processo di personalizzazione del modello, è prima necessario preparare almeno un set di dati di addestramento. I file creati devono essere conformi al formato del metodo e del modello scelti per la personalizzazione. I record in esso contenuti devono essere conformi ai requisiti di dimensione a seconda del modello. 

Per ulteriori informazioni sui requisiti del modello, consulta [Requisiti dei modelli per i set di dati di addestramento e convalida](#model-training-validation-requirements). Per visualizzare le quote predefinite applicabili ai set di dati di addestramento e convalida utilizzati per personalizzare diversi modelli, consulta le quote **Somma dei record di addestramento e convalida** in [Endpoint e quote di Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html) in Riferimenti generali di AWS. 

Se un set di dati di convalida è supportato e il formato del set di dati di addestramento e convalida dipende dai seguenti fattori: 
+ Il tipo di lavoro di personalizzazione di precisione.
+ Le modalità di input e output dei dati.

Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta [Esecuzione del fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

## Modalità supportate per la messa a punto
<a name="model-customization-data-support"></a>

Le sezioni seguenti descrivono le diverse funzionalità di ottimizzazione supportate da ciascun modello, organizzate in base alle relative modalità di input e output. Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta [Eseguire il fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Modelli **Text-to-Text  **

Text-to-Text i modelli possono essere ottimizzati per varie attività basate su testo, incluse applicazioni conversazionali e non conversazionali. Per informazioni sulla preparazione dei dati per la messa a punto dei modelli, vedere. Text-to-Text [Prepara i dati per la messa a punto dei modelli text-to-text](#preparing-text-data) 

I seguenti modelli non conversazionali sono ottimizzati per attività quali riepilogo, traduzione e risposta a domande:
+ Amazon Titan Text G1 - Express
+ Amazon Titan Text G1 - Lite
+ Amazon Titan Text Premier
+ Cohere Command
+ Cohere Command Light
+ Meta Llama 3.1 8B Instruct
+ Meta Llama 3.1 70B Instruct

I seguenti modelli conversazionali sono progettati per interazioni a turno singolo e multiplo. Se un modello utilizza l’API Converse, il set di dati per il fine-tuning deve seguire il formato dei messaggi dell’API Converse e includere i messaggi di sistema, utente e assistente. Per alcuni esempi, consulta [Prepara i dati per la messa a punto dei modelli text-to-text](#preparing-text-data). Per ulteriori informazioni sulle operazioni API Converse, consulta [Avvio di una conversazione con le operazioni dell’API Converse](conversation-inference.md).
+ Anthropic Claude 3 Haiku
+ Meta Llama 3.2 1B Instruct (formato API Converse)
+ Meta Llama 3.2 3B Instruct (formato API Converse)
+ Meta Llama 3.2 11B Instruct Vision (formato API Converse)
+ Meta Llama 3.2 90B Instruct Vision (formato API Converse)
+ Meta Llama 3.3 70B Vision Instruct (formato API Converse)

**Text-Image-to-Text & model s Text-to-Image**

I seguenti modelli supportano il fine-tuning per la generazione di immagini e l’elaborazione testo-immagine. Questi modelli elaborano o generano immagini sulla base di input testuali o generano testo in base a input sia testuali che di immagini. Per informazioni sulla preparazione dei dati per la messa a punto dei Text-to-Image modelli Text-Image-to-Text e dei modelli, vedere. [Preparare i dati per il fine-tuning dei modelli di elaborazione di immagini e testo](#preparing-image-text-data)
+ Amazon Titan Image Generator G1 V1
+ Meta Llama 3.2 11B Instruct Vision
+ Meta Llama 3.2 90B Instruct Vision
+ Meta Llama 3.3 70B Vision Instruct

**Da immagine e embedding**

I seguenti modelli supportano il fine-tuning per attività quali classificazione e recupero. Questi modelli generano rappresentazioni numeriche (embedding) a partire da input di immagini. Per informazioni sulla preparazione dei dati per la messa Image-to-Embeddings a punto dei modelli, vedere. [Preparazione dei dati per il fine-tuning della generazione di immagini e dei modelli di embedding](#preparing-image-generation-data)
+ Amazon Titan Multimodal Embeddings G1
+ Amazon Titan Image Generator G1 V1

## Requisiti dei modelli per i set di dati di addestramento e convalida
<a name="model-training-validation-requirements"></a>

Le sezioni seguenti elencano i requisiti per l’addestramento e la convalida dei set di dati per un modello. Per informazioni sui vincoli dei set di dati per i modelli Amazon Nova, consulta [Fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

### Amazon Titan Text Premier
<a name="quotas-cm-titan-premier"></a>


****  

| Description | Massimo (fine-tuning) | 
| --- | --- | 
| Somma dei token di input e output quando la dimensione del batch è 1 | 4,096 | 
| Somma dei token di input e output quando la dimensione del batch è 2, 3 o 4 | N/D | 
| Quota di caratteri per campione nel set di dati | Quota di token x 6 (stimata) | 
| Dimensione del file del set di dati di addestramento | 1 GB | 
| Dimensione del file del set di dati di convalida | 100 MB | 

### Amazon Titan Text G1 - Express
<a name="quotas-cm-titan-text"></a>


****  

| Description | Massimo (fine-tuning) | 
| --- | --- | 
| Somma dei token di input e output quando la dimensione del batch è 1 | 4,096 | 
| Somma dei token di input e output quando la dimensione del batch è 2, 3 o 4 | 2.048 | 
| Quota di caratteri per campione nel set di dati | Quota di token x 6 (stimata) | 
| Dimensione del file del set di dati di addestramento | 1 GB | 
| Dimensione del file del set di dati di convalida | 100 MB | 

### Amazon Titan Text G1 - Lite
<a name="quotas-cm-titan-text-lite"></a>


****  

| Description | Massimo (fine-tuning) | 
| --- | --- | 
| Somma dei token di input e output quando la dimensione del batch è 1 o 2 | 4,096 | 
| Somma dei token di input e output quando la dimensione del batch è 3, 4, 5 o 6 | 2.048 | 
| Quota di caratteri per campione nel set di dati | Quota di token x 6 (stimata) | 
| Dimensione del file del set di dati di addestramento | 1 GB | 
| Dimensione del file del set di dati di convalida | 100 MB | 

### Amazon Titan Image Generator G1 V1
<a name="quotas-cm-titan-image"></a>


****  

| Description | Minimo (fine-tuning) | Massimo (fine-tuning) | 
| --- | --- | --- | 
| Lunghezza del prompt di testo nell’esempio di addestramento, in caratteri | 3 | 1,024 | 
| Record in un set di dati di addestramento | 5 | 10.000 | 
| Dimensioni dell’immagine di input | 0 | 50 MB | 
| Altezza dell’immagine di input in pixel | 512 | 4,096 | 
| Larghezza dell’immagine di input in pixel | 512 | 4,096 | 
| Pixel totali dell’immagine di input | 0 | 12.582.912 | 
| Proporzioni dell’immagine di input | 1:4 | 4:1 | 

### Amazon Titan Multimodal Embeddings G1
<a name="quotas-cm-titan-mm-embed"></a>


****  

| Description | Minimo (fine-tuning) | Massimo (fine-tuning) | 
| --- | --- | --- | 
| Lunghezza del prompt di testo nell’esempio di addestramento, in caratteri | 0 | 2.560 | 
| Record in un set di dati di addestramento | 1.000 | 500.000 | 
| Dimensioni dell’immagine di input | 0 | 5 MB | 
| Altezza dell’immagine di input in pixel | 128 | 4096 | 
| Larghezza dell’immagine di input in pixel | 128 | 4096 | 
| Pixel totali dell’immagine di input | 0 | 12.528.912 | 
| Proporzioni dell’immagine di input | 1:4 | 4:1 | 

### Meta Llama 3.1
<a name="quotas-cm-meta-llama-3-1"></a>


****  

| Description | Minimo (fine-tuning) | Massimo (fine-tuning) | 
| --- | --- | --- | 
| Token di input | 0 | 16,000 | 
| Token di output | 0 | 16,000 | 
| Quota di caratteri per campione nel set di dati | 0 | Quota di token x 6 (stimata) | 
| Somma di token di input e output | 0 | 16,000 | 
| Somma dei record di addestramento e convalida | 100 | 10.000 (modificabile utilizzando le quote di servizio) | 

### Meta Llama 3.2
<a name="quotas-cm-meta-llama-3-2"></a>

I formati di immagine supportati per Meta Llama-3.2 11B Vision Instruct e Meta Llama-3.2 90B Vision Instruct includono: `gif`, `jpeg`, `png` e `webp`. Per stimare la image-to-token conversione durante la messa a punto di questi modelli, puoi usare questa formula come approssimazione:. `Tokens = min(2, max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601` Le immagini vengono convertite in circa 1.601-6.404 token in base alle loro dimensioni.


****  

| Description | Minimo (fine-tuning) | Massimo (fine-tuning) | 
| --- | --- | --- | 
| Somma di token di input e output | 0 | 16.000 (10.000 per Meta Llama 3.2 90B) | 
| Somma dei record di addestramento e convalida | 100 | 10.000 (modificabile utilizzando le quote di servizio) | 
| Dimensione dell’immagine di input per i modelli Meta Llama 11B and 90B instruct | 0 | 10 MB | 
| Altezza dell’immagine di input per i modelli Meta Llama 11B and 90B instruct | 10 | 8192 | 
| Larghezza dell’immagine in pixel per i modelli Meta Llama 11B and 90B90B instruct | 10 | 8192 | 

### Meta Llama 3.3
<a name="quotas-cm-meta-llama-3-3"></a>


****  

| Description | Minimo (fine-tuning) | Massimo (fine-tuning) | 
| --- | --- | --- | 
| Somma di token di input e output | 0 | 16000 | 
| Somma dei record di addestramento e convalida | 100 | 10.000 (modificabile utilizzando le quote di servizio) | 

### CohereCommand
<a name="quotas-cm-cohere-command"></a>


****  

| Description | Massimo (fine-tuning) | 
| --- | --- | 
| Token di input | 4,096 | 
| Token di output | 2.048 | 
| Quota di caratteri per campione nel set di dati | Quota di token x 6 (stimata) | 
| Record in un set di dati di addestramento | 10.000 | 
| Record di convalida in un set di dati | 1.000 | 

### Anthropic Claude 3 Haiku
<a name="anthropic-claude-3-haiku"></a>


****  

| Description | Massimo (fine-tuning) | 
| --- | --- | 
| Numero minimo di record | 32 | 
| Numero massimo di record di addestramento | 10.000 | 
| Numero massimo di record di convalida | 1.000 | 
| Numero massimo di record | 10.000 (modificabile utilizzando le quote di servizio) | 
| Numero massimo di token | 32.000 | 
| Dimensione massima del set di dati di addestramento | 10 GB | 
| Dimensione massima dei set di dati di convalida | 1 GB | 

## Prepara i dati per la messa a punto dei modelli text-to-text
<a name="preparing-text-data"></a>

**Nota**  
Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta [Eseguire il fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Per la messa a punto dei text-to-text modelli, ogni oggetto JSON è un esempio contenente campi strutturati progettati per guidare il modello verso la generazione dell'output testuale desiderato in base a un prompt testuale fornito. Il formato dei dati varia a seconda del caso d’uso, che può essere suddiviso in due grandi categorie: casi d’uso non conversazionali e casi d’uso conversazionali.

------
#### [ Non-conversational tasks ]

Le attività non conversazionali implicano la generazione di un singolo output per un determinato input. Ogni esempio di set di dati include un campo `prompt` contenente il testo di input e un campo `completion` con l’output previsto. Questo formato supporta una gamma di attività come la risposta a domande, il riepilogo, la traduzione, il completamento del testo e l’estrazione di informazioni.

Formato di esempio

```
{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."}
{"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}
```

Utilizza circa 6 caratteri per token per stimare il numero di token per pianificare la dimensione del set di dati.

------
#### [ Converse API format (Single turn and Multi turn) ]

Per utilizzare l’API Converse, chiama le operazioni `Converse` o `ConverseStream` per inviare messaggi a un modello. Per chiamare `Converse`, è richiesta l’autorizzazione per l’operazione `bedrock:InvokeModel`. Per chiamare `ConverseStream`, è richiesta l’autorizzazione per l’operazione `bedrock:InvokeModelWithResponseStream`. Per ulteriori informazioni, consulta [Utilizzo dell’API Converse](conversation-inference-call.md). Per ulteriori informazioni sulle operazioni API Converse, consulta [Avvio di una conversazione con le operazioni dell’API Converse](conversation-inference.md).

Formato di esempio

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [
        {
            "text": "You are a digital assistant with a friendly personality"
        }
    ],
    "messages": [
        {
            "role": "user",
            "content": [
                {
                    "text": "What is the capital of Mars?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [
                {
                    "text": "Mars does not have a capital. Perhaps it will one day."
                }
            ]
        }
    ]
}
```

------
#### [ Anthropic Claude 3 Haiku: Single-turn conversations ]

Le attività conversazionali a turno singolo prevedono scambi isolati, in cui il modello genera una risposta basandosi esclusivamente sull’input corrente dell’utente senza considerare il contesto precedente. Ogni esempio di set di dati utilizza un array di messaggi, con ruoli alternati di `user` e `assistant`.

Formato

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
```

Esempio

```
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
```

------
#### [ Anthropic Claude 3 Haiku: Multi-turn conversations ]

Le attività conversazionali a più turni prevedono dialoghi prolungati in cui il modello deve generare risposte preservando il contesto degli scambi precedenti. Questo formato cattura la natura dinamica delle attività interattive, come l’assistenza clienti o le discussioni complesse.

Formato

```
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
```

Esempio

```
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}  
```

------

## Preparare i dati per il fine-tuning dei modelli di elaborazione di immagini e testo
<a name="preparing-image-text-data"></a>

**Nota**  
Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta [Eseguire il fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Per la messa a punto dei image-text-to-text modelli, ogni oggetto JSON è un esempio contenente una conversazione strutturata come una `messages` matrice, costituita da oggetti JSON alternati che rappresentano gli input dell'utente e le risposte dell'assistente. Gli input dell’utente possono includere sia testo che immagini, mentre le risposte dell’assistente sono sempre testuali. Questa struttura supporta sia flussi conversazionali a turno singolo o a più turni, consentendo al modello di gestire in modo efficace una varietà di attività. I formati di immagine supportati per Meta Llama-3.2 11B Vision Instruct e Meta Llama-3.2 90B Vision Instruct includono: `gif`, `jpeg`, `png` e `webp`.

Per consentire ad Amazon Bedrock l’accesso ai file immagine, aggiungi una policy IAM simile a quella in [Autorizzazioni per accedere ai file di addestramento e convalida e scrivere i file di output in S3](model-customization-iam-role.md#model-customization-iam-role-s3) sul ruolo del servizio di personalizzazione del modello Amazon Bedrock che hai impostato o che è stato impostato automaticamente per te nella console. I percorsi Amazon S3 che fornisci nel set di dati di addestramento devono trovarsi nelle cartelle specificate nella policy.

**Conversazioni a turno singolo**

Ogni oggetto JSON per conversazioni a turno singolo è costituito da un messaggio utente e da un messaggio di assistente. Il messaggio dell’utente include un campo ruolo impostato su *utente* e un campo *contenuto* contenente un array con un campo `type` (*testo* o *immagine*) che descrive la modalità di input. Per gli input di testo, il campo `content` include un campo `text` con la domanda o il prompt dell’utente. Per gli input di immagini, il campo `content` specifica l’immagine `format` (ad esempio, *jpeg*, *png*) e la relativa `source` con un `uri` che indica la posizione dell’immagine in Amazon S3. `uri` rappresenta il percorso univoco per l’immagine archiviata in un bucket Amazon S3, in genere nel formato `s3://<bucket-name>/<path-to-file>`. Il messaggio dell’assistente include un campo `role` impostato su *assistente* e un campo `content` contenente un array con un campo `type` impostato su *testo* e un campo `text` contenente la risposta generata dall’assistente.

Formato di esempio

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
    ]
}
```

**Conversazioni a più turni**

Ogni oggetto JSON per conversazioni a più turni contiene una sequenza di messaggi con ruoli alternati, in cui i messaggi dell’utente e dell’assistente sono strutturati in modo coerente per consentire scambi altrettanto coerenti. I messaggi utente includono un `role` campo impostato su *utente* e un campo `content` che descrive la modalità di input. Per gli input di testo, il campo `content` include un campo `text` con la domanda o il follow-up dell’utente, mentre per gli input di immagini, specifica l’immagine `format` e la relativa `source` con un `uri` che indica la posizione dell’immagine in Amazon S3. `uri`funge da identificatore univoco nel formato s3://<bucket-name>/< path-to-file > e consente al modello di accedere all'immagine dal bucket Amazon S3 designato. I messaggi dell’assistente includono un campo `role` impostato su *assistente* e un campo `content` contenente un array con un campo `type` impostato su *testo* e un campo `text` contenente la risposta generata dall’assistente. Le conversazioni possono estendersi su più scambi, permettendo all’assistente di mantenere il contesto e fornire risposte coerenti per l’intera durata.

Formato di esempio

```
{
    "schemaVersion": "bedrock-conversation-2024",
    "system": [{
        "text": "You are a smart assistant that answers questions respectfully"
    }],
    "messages": [{
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                },
                {
                    "image": {
                        "format": "png",
                        "source": {
                            "s3Location": {
                                "uri": "s3://your-bucket/your-path/your-image.png",
                                "bucketOwner": "your-aws-account-id"
                            }
                        }
                    }
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        },
        {
            "role": "user",
            "content": [{
                    "text": "What does the text in this image say?"
                }
            ]
        },
        {
            "role": "assistant",
            "content": [{
                "text": "The text in the attached image says 'LOL'."
            }]
        }
        
    ]
}
```

## Preparazione dei dati per il fine-tuning della generazione di immagini e dei modelli di embedding
<a name="preparing-image-generation-data"></a>

**Nota**  
I modelli Amazon Nova presentano requisiti di fine-tuning diversi. Per eseguire il fine-tuning di questi modelli, segui le istruzioni riportate in [Fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Per i text-to-image nostri image-to-embedding modelli, prepara un set di dati di addestramento. I set di dati di convalida non sono supportati. Ogni riga dell’oggetto JSON è un esempio contenente un `image-ref`, l’URI di Amazon S3 per un’immagine e un `caption` che potrebbe essere un prompt per l’immagine.

L'immagine deve essere in formato PNG o JPEG.

```
{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"}
{"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}
```

Di seguito è riportato un esempio:

```
{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}
```

Per consentire ad Amazon Bedrock di accedere ai file di immagine, aggiungi una policy IAM simile a quella in [Autorizzazioni per accedere ai file di addestramento e convalida e scrivere i file di output in S3](model-customization-iam-role.md#model-customization-iam-role-s3) sul ruolo del servizio di personalizzazione del modello di Amazon Bedrock che hai impostato o che è stato impostato automaticamente per te nella console. I percorsi Amazon S3 che fornisci nel set di dati di addestramento devono trovarsi nelle cartelle specificate nella policy.

# Ottimizzazione dei Amazon Nova modelli con messa a punto supervisionata
<a name="nova-2-sft-data-prep"></a>

Amazon NovaI dati SFT 2.0 utilizzano lo stesso formato API Converse della versione Amazon Nova 1.0, con l'aggiunta di campi di contenuto opzionali di ragionamento. Per le specifiche complete del formato, consulta lo [ReasoningContentBlock](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_runtime_ReasoningContentBlock.html)schema delle API di [Converse](https://docs.aws.amazon.com/bedrock/latest/userguide/conversation-inference-call.html).

**Funzionalità supportate:**
+ **Tipi di input**: testo, immagine o video nei blocchi di contenuto dell'utente
+ **Contenuti dell'assistente**: risposte di solo testo e contenuti di ragionamento
+ **Composizione del set di dati**: deve essere omogenea. Scegliete una delle seguenti opzioni: giri di solo testo, giri testo\$1immagine o testo\$1video

**Importante**  
Non puoi mescolare immagini e video all'interno dello stesso set di dati o in turni diversi.

**Limitazioni attuali:**
+ **Utilizzo degli strumenti**: sebbene l'utilizzo degli strumenti sia supportato nel formato di input, attualmente non è supportato da Amazon Nova 2.0 SFT. L'aggiunta di sezioni relative agli strumenti potrebbe causare il fallimento del lavoro.
+ Contenuto di **ragionamento multimodale: sebbene il formato Converse supporti contenuti** di ragionamento basati su immagini, questo non è supportato dalla SFT 2.0. Amazon Nova
+ **Set di convalida: la fornitura di un set** di convalida potrebbe essere supportata tramite l'interfaccia utente ma non durante la formazione SFT.

**Formati multimediali supportati:**
+ **Immagini**: PNG, JPEG, GIF
+ **Video**: MOV, MKV, MP4

## Esempi di formati di dati
<a name="nova-2-sft-data-examples"></a>

------
#### [ Text-only ]

Questo esempio mostra un formato base di solo testo compatibile con Amazon Nova 1.0.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "text": "The closest country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Text with reasoning ]

Questo esempio mostra il testo con contenuti di ragionamento facoltativi per la versione 2.0. Amazon Nova

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a digital assistant with a friendly personality"
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "text": "What country is right next to Australia?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I need to use my world knowledge of geography to answer this question"
            }
          }
        },
        {
          "text": "The closest country to Australia is New Zealand, located to the southeast across the Tasman Sea."
        }
      ]
    }
  ]
}
```

**Nota**  
Attualmente, `reasoningText` è supportato solo all'interno`reasoningContent`. Il contenuto del ragionamento multimodale non è ancora disponibile.

------
#### [ Image \$1 text ]

Questo esempio mostra come includere l'input di immagini nel testo.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "image": {
            "format": "jpeg",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-image.jpg",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "Which country is highlighted in the image?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will determine the highlighted country by examining its location on the map and using my geographical knowledge"
            }
          }
        },
        {
          "text": "The highlighted country is New Zealand"
        }
      ]
    }
  ]
}
```

------
#### [ Video \$1 text ]

Questo esempio mostra come includere l'input video nel testo.

```
{
  "schemaVersion": "bedrock-conversation-2024",
  "system": [
    {
      "text": "You are a helpful assistant."
    }
  ],
  "messages": [
    {
      "role": "user",
      "content": [
        {
          "video": {
            "format": "mp4",
            "source": {
              "s3Location": {
                "uri": "s3://your-bucket/your-path/your-video.mp4",
                "bucketOwner": "your-aws-account-id"
              }
            }
          }
        },
        {
          "text": "What is shown in this video?"
        }
      ]
    },
    {
      "role": "assistant",
      "content": [
        {
          "reasoningContent": {
            "reasoningText": {
              "text": "I will analyze the video content to identify key elements"
            }
          }
        },
        {
          "text": "The video shows a map with New Zealand highlighted"
        }
      ]
    }
  ]
}
```

------

## Contenuto del ragionamento
<a name="nova-2-reasoning-modes"></a>

Il contenuto del ragionamento (chiamato anche chain-of-thought) cattura le fasi di pensiero intermedie del modello prima di generare una risposta finale. A `assistant` sua volta, usa il `reasoningContent` campo per includere queste tracce di ragionamento.

**Come viene calcolata la perdita:**
+ **Con contenuto di ragionamento**: la perdita di formazione include sia i token di ragionamento che i token di output finale
+ **Senza contenuti di ragionamento**: la perdita di formazione viene calcolata solo sui token di output finali

**Quando abilitare la modalità di ragionamento:** imposta `reasoning_enabled: true` nella configurazione di addestramento se desideri che il modello generi token di pensiero prima di produrre i risultati finali o se desideri migliorare le prestazioni in attività di ragionamento complesse. Imposta `reasoning_enabled: false` quando ti alleni su attività semplici che non traggono vantaggio da passaggi di ragionamento espliciti.

**Nota**  
Puoi abilitare la modalità di ragionamento indipendentemente dal fatto che i dati di allenamento contengano contenuti di ragionamento. Tuttavia, si consiglia di includere tracce di ragionamento nei dati di allenamento in modo che il modello possa imparare da questi esempi e migliorare la qualità del ragionamento.

**Linee guida per la formattazione:**
+ Usa testo semplice per ragionare i contenuti.
+ Evita i tag di markup come `<thinking>` e `</thinking>` a meno che non siano specificamente richiesti dalla tua attività.
+ Assicurati che il contenuto del ragionamento sia chiaro e pertinente al processo di risoluzione dei problemi.

**Un contenuto di ragionamento efficace dovrebbe includere:**
+ Pensieri e analisi intermedi
+ Deduzioni logiche e fasi di inferenza
+ Step-by-step approcci per la risoluzione dei problemi
+ Connessioni esplicite tra fasi e conclusioni

Se il tuo set di dati non contiene tracce di ragionamento, puoi crearle utilizzando un modello in grado di ragionare come Nova Premier. Fornisci le tue coppie di input-output al modello e acquisisci il relativo processo di ragionamento per creare un set di dati basato sul ragionamento.

## Linee guida per la preparazione dei dataset
<a name="nova-2-dataset-preparation"></a>

La tabella seguente fornisce linee guida per la preparazione del set di dati di allenamento.


**Linee guida per la preparazione dei dataset**  

| Linea guida | Description | 
| --- | --- | 
| Dimensioni e qualità |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Diversità |  Includi diversi esempi che eseguono le seguenti operazioni: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Formattazione dell'output |  Specificate chiaramente il formato di output desiderato nelle risposte dell'assistente. Gli esempi includono strutture JSON, tabelle, formato CSV o formati personalizzati specifici dell'applicazione.  | 
| Conversazioni a più turni |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 
| Lista di controllo della qualità |  [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/it_it/bedrock/latest/userguide/nova-2-sft-data-prep.html)  | 

# Iperparametri del modello personalizzato
<a name="custom-models-hp"></a>

Il seguente contenuto di riferimento descrive gli iperparametri disponibili per l'addestramento di ciascun modello personalizzato di Amazon Bedrock.

Un iperparametro è un parametro che controlla il processo di addestramento, come la velocità di apprendimento o il numero di epoche. Imposti iperparametri per la formazione su modelli personalizzati quando [invii](model-customization-submit.md) il lavoro di fine tuning con la console Amazon Bedrock o chiamando l'operatore dell'[CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)API.

## Iperparametri di personalizzazione del modello Amazon Nova Understanding
<a name="cm-hp-nova-mm"></a>

I modelli Amazon Nova Lite, Amazon Nova Micro e Amazon Nova Pro supportano i seguenti iperparametri per la personalizzazione del modello. Per ulteriori informazioni, consulta [Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso](custom-models.md).

 Per informazioni sul fine-tuning dei modelli Amazon Nova, consultare [Eseguire il fine-tuning dei modelli Amazon Nova](https://docs.aws.amazon.com/nova/latest/userguide/customize-fine-tune.html).

Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 5 | 2 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 1,00E-6 | 1,00E-4 | 1,00E-5 | 
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 100 | 10 | 

Il numero di epoch predefinito è 2, che funziona nella maggior parte dei casi. In generale, set di dati di dimensioni maggiori richiedono meno epoch per la convergenza, mentre set di dati di dimensioni minori prevedono più epoch. Una convergenza più rapida potrebbe essere ottenuta anche aumentando la velocità di apprendimento, ma ciò è meno auspicabile perché potrebbe portare all’instabilità dell’addestramento al momento della convergenza. Consigliamo di iniziare con gli iperparametri predefiniti, che si basano sulla nostra valutazione di attività con complessità e dimensioni dei dati diverse.

Il tasso di apprendimento aumenterà gradualmente fino al valore impostato durante il riscaldamento. Pertanto, è consigliabile evitare un valore elevato durante il riscaldamento per un campione di addestramento di piccole dimensioni, poiché il tasso di apprendimento potrebbe non raggiungere mai il valore impostato durante il processo di addestramento. Consigliamo di impostare le fasi di riscaldamento dividendo la dimensione del set di dati per 640 per Amazon Nova Micro, 160 per Amazon Nova Lite e 320 per Amazon Nova Pro.

## Iperparametri di personalizzazione del modello Amazon Nova Canvas
<a name="cm-hp-nova-canvas"></a>

Il modello Amazon Nova Canvas supporta i seguenti iperparametri per la personalizzazione.


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | 
| Dimensione batch | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 8 | 192 | 8 | 
| Fasi | stepCount | Numero di volte in cui il modello viene esposto a ciascun batch | 10 | 20.000 | 500 | 
| Tasso di apprendimento | learningRate | Velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 1.00E-7 | 1,00E-4 | 1,00E-5 | 

## modello di testo Amazon Titan personalizzazione iperparametri
<a name="cm-hp-titan-text"></a>

Il modello Amazon Titan Text Premier supporta i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 5 | 2 | 
| Dimensione del batch (micro) | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 1 | 1 | 1 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 1,00E-07 | 1,00E-05 | 1,00E-06 | 
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 20 | 5 | 

I modelli Amazon Titan Text, come Lite ed Express, supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 10 | 5 | 
| Dimensione del batch (micro) | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 1 | 64 | 1 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 0,0 | 1 | 1.00E-5 | 
| Fasi di riscaldamento del tasso di apprendimento | FasilearningRateWarmup | Il numero di iterazioni durante le quali il tasso di apprendimento viene gradualmente aumentato fino a quello specificato | intero | 0 | 250 | 5 | 

## Iperparametri di personalizzazione del modello di Generatore di immagini Amazon Titan G1
<a name="cm-hp-titan-image"></a>

Il modello di Generatore di immagini Amazon Titan G1 supporta i seguenti iperparametri per la personalizzazione.

**Nota**  
`stepCount` non ha un valore predefinito e deve essere specificato. `stepCount` supporta il valore `auto`. `auto` dà priorità alle prestazioni del modello rispetto ai costi di addestramento determinando automaticamente un numero in base alla dimensione del set di dati. I costi dei job di addestramento dipendono dal numero determinato da `auto`. Per capire come viene calcolato il costo dei job e per vedere alcuni esempi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | 
| Dimensione batch | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 8 | 192 | 8 | 
| Fasi | stepCount | Numero di volte in cui il modello viene esposto a ciascun batch | 10 | 40.000 | N/D | 
| Tasso di apprendimento | learningRate | Velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 1.00E-7 | 1 | 1.00E-5 | 

## Iperparametri di personalizzazione di Amazon Titan Multimodal Embeddings G1
<a name="cm-hp-titan-mm"></a>

Il modello Amazon Titan Multimodal Embeddings G1 supporta i seguenti iperparametri per la personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).

**Nota**  
`epochCount` non ha un valore predefinito e deve essere specificato. `epochCount` supporta il valore `Auto`. `Auto` dà priorità alle prestazioni del modello rispetto ai costi di addestramento determinando automaticamente un numero in base alla dimensione del set di dati. I costi dei job di addestramento dipendono dal numero determinato da `Auto`. Per capire come viene calcolato il costo dei job e per vedere alcuni esempi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 100 | N/D | 
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 256 | 9.216 | 576 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | virgola mobile | 5,00E-8 | 1 | 5,00E-5 | 

## Iperparametri di personalizzazione del modello Anthropic Claude 3
<a name="cm-hp-anth-claude-3"></a>

I modelli Anthropic Claude 3 supportano i seguenti iperparametri di personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing).


****  

| Nome console | Nome API | Definizione | Predefinita | Minimo | Massimo | 
| --- | --- | --- | --- | --- | --- | 
| Numero di epoch | epochCount | Numero massimo di iterazioni nell’intero set di dati di addestramento | 2 | 1 | 10 | 
| Dimensione batch  | batchSize | Numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | 32 | 4 | 256 | 
| Moltiplicatore del tasso di apprendimento | learningRateMultiplier | Moltiplicatore che influisce sul tasso di apprendimento con cui i parametri vengono aggiornati dopo ogni batch | 1 | 0.1 | 2 | 
| Soglia per l’arresto anticipato | earlyStoppingThreshold | Miglioramento minimo delle perdite di convalida richiesto per prevenire l’interruzione anticipata del processo di addestramento | 0.001 | 0 | 0.1 | 
| Tolleranza per l’arresto anticipato | earlyStoppingPatience | Tolleranza alla stagnazione nella metrica relativa alle perdite di convalida prima dell’interruzione del processo di addestramento | 2 | 1 | 10 | 

## Iperparametri di personalizzazione del modello Cohere Command
<a name="cm-hp-cohere-command"></a>

I modelli di Cohere Command e Cohere Command Light supportano i seguenti iperparametri di personalizzazione. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Per ulteriori informazioni, consulta [Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso](custom-models.md).

 [Per informazioni sui Cohere modelli di fine tuning, consultate la documentazione su fine-tuning. Cohere https://docs.cohere.com/docs/](https://docs.cohere.com/docs/fine-tuning)

**Nota**  
La quota `epochCount` è modificabile.


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Tipo | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | intero | 1 | 100 | 1 | 
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell’aggiornamento dei parametri del modello | intero | 8 | 8 (Command)32 (Light) | 8 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch. Se utilizzi un set di dati di convalida, è consigliabile non specificare un valore per learningRate. | virgola mobile | 5.00E-6 | 0.1 | 1,00E-5 | 
| Soglia per l’arresto anticipato | earlyStoppingThreshold | Il miglioramento minimo delle perdite richiesto per prevenire l’interruzione prematura del processo di addestramento | virgola mobile | 0 | 0.1 | 0.01 | 
| Tolleranza per l’arresto anticipato | earlyStoppingPatience | La tolleranza alla stagnazione nella metrica delle perdite prima dell’interruzione del processo di addestramento | intero | 1 | 10 | 6 | 
| Percentuale di valutazione | evalPercentage |  La percentuale del set di dati allocato per la valutazione del modello, se non fornisci un set di dati di convalida separato  | virgola mobile | 5 | 50 | 20 | 

## Iperparametri di personalizzazione del modello Meta Llama 3.1
<a name="cm-hp-meta-llama31"></a>

I modelli Meta Llama 3.1 8B e 70B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Per ulteriori informazioni, consulta [Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso](custom-models.md).

 [Per informazioni sulla regolazione fine dei modelli Meta Llama, consulta la Meta documentazione su get-started/ \$1fine -tuning. https://ai.meta.com/llama/](https://ai.meta.com/llama/get-started/#fine-tuning)

**Nota**  
La quota `epochCount` è modificabile.


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | 1 | 10 | 5 | 
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello | 1 | 1 | 1 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 5.00E-6 | 0.1 | 1,00E-4 | 

## Iperparametri di personalizzazione del modello Meta Llama 3.2
<a name="cm-hp-meta-llama32"></a>

I modelli Meta Llama 3.2 1B, 3B, 11B e 90B supportano i seguenti iperparametri per la personalizzazione del modello. Il numero di epoch specificate aumenta i costi di personalizzazione del modello in quanto vengono elaborati più token. Ogni epoch elabora l’intero set di dati di addestramento una volta. Per informazioni sui prezzi, consulta [Prezzi di Amazon Bedrock](https://aws.amazon.com/bedrock/pricing). Per ulteriori informazioni, consulta [Personalizzazione del modello per migliorarne le prestazioni per il proprio caso d’uso](custom-models.md).

 [Per informazioni sulla regolazione fine dei modelli Meta Llama, consulta la Meta documentazione su get-started/ \$1fine -tuning. https://ai.meta.com/llama/](https://ai.meta.com/llama/get-started/#fine-tuning)


****  

| Iperparametro (console) | Iperparametro (API) | Definizione | Minimo | Massimo | Predefinita | 
| --- | --- | --- | --- | --- | --- | 
| Epoch | epochCount | Il numero di iterazioni nell’intero set di dati di addestramento | 1 | 10 | 5 | 
| Dimensione batch | batchSize | Il numero di campioni elaborati prima dell'aggiornamento dei parametri del modello | 1 | 1 | 1 | 
| Tasso di apprendimento | learningRate | La velocità con cui i parametri del modello vengono aggiornati dopo ogni batch | 5.00E-6 | 0.1 | 1,00E-4 | 

# Invia un lavoro di personalizzazione del modello per la messa a punto
<a name="model-customization-submit"></a>

Puoi creare un modello personalizzato utilizzando la regolazione fine nella console o nell'API di Amazon Bedrock. È possibile eseguire un ulteriore fine-tuning di un modello personalizzato esistente. Il processo di personalizzazione può richiedere anche alcune ore. La durata del processo dipende dalla dimensione dei dati di addestramento (numero di record, token di input e token di output), dal numero di epoch e dalla dimensione del batch.

## Prerequisiti
<a name="submit-model-customization-job-prerequisites"></a>
+ Crea un ruolo di servizio AWS Identity and Access Management (IAM) per accedere al bucket S3 in cui desideri archiviare i dati di formazione e convalida per la personalizzazione del modello. Puoi creare questo ruolo automaticamente utilizzando o manualmente. Console di gestione AWS Per ulteriori informazioni sull’opzione manuale, consultare [Creare un ruolo di servizio IAM per la personalizzazione del modello](custom-model-job-access-security.md#custom-model-job-service-role).
+ (Facoltativo) Crittografare i dati di input e output, il processo di personalizzazione o le richieste di inferenza effettuate su modelli personalizzati. Per ulteriori informazioni, consulta [Crittografia di modelli personalizzati](encryption-custom-job.md).
+ (Facoltativo) Creare un cloud privato virtuale (VPC) per proteggere il processo di personalizzazione. Per ulteriori informazioni, consulta [(Facoltativo) Protezione dei processi di personalizzazione del modello utilizzando un VPC](custom-model-job-access-security.md#vpc-model-customization).

## Inviare il processo
<a name="submit-model-customization-job-how-to"></a>

Scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:

------
#### [ Console ]

Per inviare un processo di personalizzazione del modello nella console, attieniti alla procedura descritta di seguito.

1. Accedi a Console di gestione AWS con un'identità IAM che dispone delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock in [https://console.aws.amazon.com/bedrock.](https://console.aws.amazon.com/bedrock)

1. Nel riquadro di navigazione a sinistra, scegli **Modelli personalizzati** in **Ottimizza**.

1. Nella scheda **Modelli**, scegli **Personalizza modello** e poi **Crea un** lavoro di ottimizzazione.

1. Nella sezione **Dettagli modello**, procedi come segue.

   1. Scegli il modello che vuoi personalizzare con i tuoi dati e assegna un nome al modello risultante. Come modello base puoi scegliere un modello di fondazione o un modello precedentemente personalizzato (ottimizzato o distillato).

   1. (Facoltativo) Per impostazione predefinita, Amazon Bedrock crittografa il modello con una chiave di proprietà e gestita da AWS. Per utilizzare una [chiave KMS personalizzata](encryption-custom-job.md), seleziona **Crittografia del modello** e scegli una chiave.

   1. (Facoltativo) Per associare [tag](tagging.md) al modello personalizzato, espandi la sezione **Tag** se seleziona **Aggiungi nuovo tag**.

1. Nella sezione **Configurazione del processo**, inserisci un nome per il processo e aggiungi eventuali tag da associare al processo.

1. (Facoltativo) Per utilizzare un [cloud privato virtuale (VPC) per proteggere i dati di addestramento e il processo di personalizzazione](custom-model-job-access-security.md#vpc-model-customization), nella sezione **Impostazioni VPC** seleziona un VPC che contenga le posizioni Amazon S3 dei dati di input e output, le relative sottoreti e i gruppi di sicurezza.
**Nota**  
Se il processo include la configurazione di un VPC, la console non può creare un nuovo ruolo di servizio per il processo. [Crea un ruolo di servizio personalizzato](model-customization-iam-role.md) e aggiungi autorizzazioni simili all’esempio descritto in [Associare le autorizzazioni VPC a un ruolo di personalizzazione del modello](custom-model-job-access-security.md#vpc-data-access-role).

1. Nella sezione **Dati di input**, seleziona la posizione S3 del file del set di dati di addestramento e, se applicabile, del file del set di dati di convalida.

1. Nella sezione **Iperparametri**, inserisci i valori per gli [iperparametri](custom-models-hp.md) da utilizzare durante l’addestramento.

1. Nella sezione **Dati di output**, inserisci la posizione Amazon S3 in cui Amazon Bedrock deve salvare l’output del processo. Amazon Bedrock archivia le metriche di perdita di addestramento e di convalida per ogni epoch in file separati, nella posizione che specifichi.

1. Nella sezione **Accesso al servizio**, seleziona una delle seguenti opzioni: 
   + **Usa un ruolo di servizio esistente**: seleziona un ruolo di servizio nell’elenco a discesa. Per ulteriori informazioni sulla configurazione di un ruolo personalizzato con le autorizzazioni appropriate, consulta [Creazione di un ruolo di servizio per la personalizzazione del modello](model-customization-iam-role.md).
   + **Crea e utilizza un nuovo ruolo di servizio**: inserisci un nome per il ruolo di servizio.

1. Scegli il **modello Fine-tune per iniziare** il lavoro.

------
#### [ API ]

**Richiesta**

Invia una richiesta [CreateModelCustomizationJob](https://docs.aws.amazon.com/bedrock/latest/APIReference/API_CreateModelCustomizationJob.html)(consulta il link per i formati di richiesta e risposta e i dettagli sui campi) con un [endpoint del piano di controllo Amazon Bedrock](https://docs.aws.amazon.com/general/latest/gr/bedrock.html#br-cp) per inviare un processo di personalizzazione del modello. Devi specificare almeno i seguenti campi:
+ `roleArn`: l’ARN del ruolo di servizio con le autorizzazioni per personalizzare i modelli. Amazon Bedrock può creare automaticamente un ruolo con le autorizzazioni appropriate se utilizzi la console oppure puoi creare un ruolo personalizzato seguendo la procedura indicata in [Creazione di un ruolo di servizio per la personalizzazione del modello](model-customization-iam-role.md).
**Nota**  
Se includi un campo `vpcConfig`, assicurati che il ruolo abbia le autorizzazioni appropriate per accedere al VPC. Per un esempio, consulta [Associare le autorizzazioni VPC a un ruolo di personalizzazione del modello](custom-model-job-access-security.md#vpc-data-access-role).
+ `baseModelIdentifier`: l’[ID modello](models-supported.md) o l’ARN del modello di fondazione o del modello precedentemente personalizzato (ottimizzato o distillato) da personalizzare.
+ `customModelName`: il nome da assegnare al modello appena personalizzato.
+ `jobName`: il nome da assegnare al job di addestramento.
+ `hyperParameters`: gli [iperparametri](custom-models-hp.md) che influiscono sul processo di personalizzazione del modello.
+ `trainingDataConfig`: un oggetto contenente l’URI di Amazon S3 per il set di dati di addestramento. A seconda del metodo e del modello di personalizzazione, puoi includere anche un `validationDataConfig`. Per ulteriori informazioni sulla preparazione dei set di dati, consulta [Prepara i dati per perfezionare i tuoi modelli](model-customization-prepare.md).
+ `validationDataconfig`: un oggetto contenente l’URI di Amazon S3 per il set di dati di convalida.
+ `outputDataConfig`: un oggetto contenente l’URI di Amazon S3 in cui scrivere il set di dati di output.

Se non specifichi il `customizationType`, il metodo di personalizzazione del modello predefinito è `FINE_TUNING`.

Per evitare che la richiesta venga completata più di una volta, includi un `clientRequestToken`.

Puoi includere i seguenti campi facoltativi per ulteriori configurazioni.
+ `jobTags` and/or `customModelTags`— Associa i [tag](tagging.md) al processo di personalizzazione o al modello personalizzato risultante.
+ `customModelKmsKeyId`: include una [chiave KMS personalizzata](encryption-custom-job.md) per crittografare il modello personalizzato.
+ `vpcConfig`: include la configurazione per un [cloud privato virtuale (VPC) per proteggere i dati di addestramento e il processo di personalizzazione](custom-model-job-access-security.md#vpc-model-customization).

**Risposta**

La risposta restituisce un `jobArn` che puoi utilizzare per [monitorare](model-customization-monitor.md) o [interrompere](model-customization-stop.md) il processo.

[Vedi esempi di codice](model-customization-code-samples.md)

------