Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Prepara i dati per perfezionare i tuoi modelli
Per preparare i set di dati di addestramento e convalida per il modello personalizzato, crea file .jsonl, ogni riga dei quali è un oggetto JSON corrispondente a un record. Per poter avviare un processo di personalizzazione del modello, è prima necessario preparare almeno un set di dati di addestramento. I file creati devono essere conformi al formato del metodo e del modello scelti per la personalizzazione. I record in esso contenuti devono essere conformi ai requisiti di dimensione a seconda del modello.
Per ulteriori informazioni sui requisiti del modello, consulta Requisiti dei modelli per i set di dati di addestramento e convalida. Per visualizzare le quote predefinite applicabili ai set di dati di addestramento e convalida utilizzati per personalizzare diversi modelli, consulta le quote Somma dei record di addestramento e convalida in Endpoint e quote di Amazon Bedrock in Riferimenti generali di AWS.
Se un set di dati di convalida è supportato e il formato del set di dati di addestramento e convalida dipende dai seguenti fattori:
-
Il tipo di lavoro di personalizzazione di precisione.
-
Le modalità di input e output dei dati.
Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Esecuzione del fine-tuning dei modelli Amazon Nova.
Le sezioni seguenti descrivono le diverse funzionalità di ottimizzazione supportate da ciascun modello, organizzate in base alle relative modalità di input e output. Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Eseguire il fine-tuning dei modelli Amazon Nova.
Modelli Text-to-Text
Text-to-Text i modelli possono essere ottimizzati per varie attività basate su testo, incluse applicazioni conversazionali e non conversazionali. Per informazioni sulla preparazione dei dati per la messa a punto dei modelli, vedere. Text-to-Text Prepara i dati per la messa a punto dei modelli text-to-text
I seguenti modelli non conversazionali sono ottimizzati per attività quali riepilogo, traduzione e risposta a domande:
Amazon Titan Text G1 - Express
Amazon Titan Text G1 - Lite
Amazon Titan Text Premier
Cohere Command
Cohere Command Light
Meta Llama 3.1 8B Instruct
Meta Llama 3.1 70B Instruct
I seguenti modelli conversazionali sono progettati per interazioni a turno singolo e multiplo. Se un modello utilizza l’API Converse, il set di dati per il fine-tuning deve seguire il formato dei messaggi dell’API Converse e includere i messaggi di sistema, utente e assistente. Per alcuni esempi, consulta Prepara i dati per la messa a punto dei modelli text-to-text. Per ulteriori informazioni sulle operazioni API Converse, consulta Avvio di una conversazione con le operazioni dell’API Converse.
Anthropic Claude 3 Haiku
Meta Llama 3.2 1B Instruct (formato API Converse)
Meta Llama 3.2 3B Instruct (formato API Converse)
Meta Llama 3.2 11B Instruct Vision (formato API Converse)
Meta Llama 3.2 90B Instruct Vision (formato API Converse)
Meta Llama 3.3 70B Vision Instruct (formato API Converse)
Text-Image-to-Text & model s Text-to-Image
I seguenti modelli supportano il fine-tuning per la generazione di immagini e l’elaborazione testo-immagine. Questi modelli elaborano o generano immagini sulla base di input testuali o generano testo in base a input sia testuali che di immagini. Per informazioni sulla preparazione dei dati per la messa a punto dei Text-to-Image modelli Text-Image-to-Text e dei modelli, vedere. Preparare i dati per il fine-tuning dei modelli di elaborazione di immagini e testo
Amazon Titan Image Generator G1 V1
Meta Llama 3.2 11B Instruct Vision
Meta Llama 3.2 90B Instruct Vision
Meta Llama 3.3 70B Vision Instruct
Da immagine e embedding
I seguenti modelli supportano il fine-tuning per attività quali classificazione e recupero. Questi modelli generano rappresentazioni numeriche (embedding) a partire da input di immagini. Per informazioni sulla preparazione dei dati per la messa Image-to-Embeddings a punto dei modelli, vedere. Preparazione dei dati per il fine-tuning della generazione di immagini e dei modelli di embedding
Amazon Titan Multimodal Embeddings G1
Amazon Titan Image Generator G1 V1
Le sezioni seguenti elencano i requisiti per l’addestramento e la convalida dei set di dati per un modello. Per informazioni sui vincoli dei set di dati per i modelli Amazon Nova, consulta Fine-tuning dei modelli Amazon Nova.
| Description | Massimo (fine-tuning) |
|---|---|
| Somma dei token di input e output quando la dimensione del batch è 1 | 4,096 |
| Somma dei token di input e output quando la dimensione del batch è 2, 3 o 4 | N/D |
| Quota di caratteri per campione nel set di dati | Quota di token x 6 (stimata) |
| Dimensione del file del set di dati di addestramento | 1 GB |
| Dimensione del file del set di dati di convalida | 100 MB |
| Description | Massimo (fine-tuning) |
|---|---|
| Somma dei token di input e output quando la dimensione del batch è 1 | 4,096 |
| Somma dei token di input e output quando la dimensione del batch è 2, 3 o 4 | 2.048 |
| Quota di caratteri per campione nel set di dati | Quota di token x 6 (stimata) |
| Dimensione del file del set di dati di addestramento | 1 GB |
| Dimensione del file del set di dati di convalida | 100 MB |
| Description | Massimo (fine-tuning) |
|---|---|
| Somma dei token di input e output quando la dimensione del batch è 1 o 2 | 4,096 |
| Somma dei token di input e output quando la dimensione del batch è 3, 4, 5 o 6 | 2.048 |
| Quota di caratteri per campione nel set di dati | Quota di token x 6 (stimata) |
| Dimensione del file del set di dati di addestramento | 1 GB |
| Dimensione del file del set di dati di convalida | 100 MB |
| Description | Minimo (fine-tuning) | Massimo (fine-tuning) |
|---|---|---|
| Lunghezza del prompt di testo nell’esempio di addestramento, in caratteri | 3 | 1,024 |
| Record in un set di dati di addestramento | 5 | 10.000 |
| Dimensioni dell’immagine di input | 0 | 50 MB |
| Altezza dell’immagine di input in pixel | 512 | 4,096 |
| Larghezza dell’immagine di input in pixel | 512 | 4,096 |
| Pixel totali dell’immagine di input | 0 | 12.582.912 |
| Proporzioni dell’immagine di input | 1:4 | 4:1 |
| Description | Minimo (fine-tuning) | Massimo (fine-tuning) |
|---|---|---|
| Lunghezza del prompt di testo nell’esempio di addestramento, in caratteri | 0 | 2.560 |
| Record in un set di dati di addestramento | 1.000 | 500.000 |
| Dimensioni dell’immagine di input | 0 | 5 MB |
| Altezza dell’immagine di input in pixel | 128 | 4096 |
| Larghezza dell’immagine di input in pixel | 128 | 4096 |
| Pixel totali dell’immagine di input | 0 | 12.528.912 |
| Proporzioni dell’immagine di input | 1:4 | 4:1 |
| Description | Minimo (fine-tuning) | Massimo (fine-tuning) |
|---|---|---|
| Token di input | 0 | 16,000 |
| Token di output | 0 | 16,000 |
| Quota di caratteri per campione nel set di dati | 0 | Quota di token x 6 (stimata) |
| Somma di token di input e output | 0 | 16,000 |
| Somma dei record di addestramento e convalida | 100 | 10.000 (modificabile utilizzando le quote di servizio) |
I formati di immagine supportati per Meta Llama-3.2 11B Vision Instruct e Meta
Llama-3.2 90B Vision Instruct includono: gif, jpeg, png e webp. Per stimare la image-to-token conversione durante la messa a punto di questi modelli, puoi usare questa formula come approssimazione:. Tokens = min(2,
max(Height // 560, 1)) * min(2, max(Width // 560, 1)) * 1601 Le immagini vengono convertite in circa 1.601-6.404 token in base alle loro dimensioni.
| Description | Minimo (fine-tuning) | Massimo (fine-tuning) |
|---|---|---|
| Somma di token di input e output | 0 | 16.000 (10.000 per Meta Llama 3.2 90B) |
| Somma dei record di addestramento e convalida | 100 | 10.000 (modificabile utilizzando le quote di servizio) |
| Dimensione dell’immagine di input per i modelli Meta Llama 11B and 90B instruct | 0 | 10 MB |
| Altezza dell’immagine di input per i modelli Meta Llama 11B and 90B instruct | 10 | 8192 |
| Larghezza dell’immagine in pixel per i modelli Meta Llama 11B and 90B90B instruct | 10 | 8192 |
| Description | Minimo (fine-tuning) | Massimo (fine-tuning) |
|---|---|---|
| Somma di token di input e output | 0 | 16000 |
| Somma dei record di addestramento e convalida | 100 | 10.000 (modificabile utilizzando le quote di servizio) |
| Description | Massimo (fine-tuning) |
|---|---|
| Token di input | 4,096 |
| Token di output | 2.048 |
| Quota di caratteri per campione nel set di dati | Quota di token x 6 (stimata) |
| Record in un set di dati di addestramento | 10.000 |
| Record di convalida in un set di dati | 1.000 |
| Description | Massimo (fine-tuning) |
|---|---|
| Numero minimo di record | 32 |
| Numero massimo di record di addestramento | 10.000 |
| Numero massimo di record di convalida | 1.000 |
| Numero massimo di record | 10.000 (modificabile utilizzando le quote di servizio) |
| Numero massimo di token | 32.000 |
| Dimensione massima del set di dati di addestramento | 10 GB |
| Dimensione massima dei set di dati di convalida | 1 GB |
Nota
Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Eseguire il fine-tuning dei modelli Amazon Nova.
Per la messa a punto dei text-to-text modelli, ogni oggetto JSON è un esempio contenente campi strutturati progettati per guidare il modello verso la generazione dell'output testuale desiderato in base a un prompt testuale fornito. Il formato dei dati varia a seconda del caso d’uso, che può essere suddiviso in due grandi categorie: casi d’uso non conversazionali e casi d’uso conversazionali.
Nota
Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Eseguire il fine-tuning dei modelli Amazon Nova.
Per la messa a punto dei image-text-to-text modelli, ogni oggetto JSON è un esempio contenente una conversazione strutturata come una messages matrice, costituita da oggetti JSON alternati che rappresentano gli input dell'utente e le risposte dell'assistente. Gli input dell’utente possono includere sia testo che immagini, mentre le risposte dell’assistente sono sempre testuali. Questa struttura supporta sia flussi conversazionali a turno singolo o a più turni, consentendo al modello di gestire in modo efficace una varietà di attività. I formati di immagine supportati per Meta Llama-3.2 11B Vision Instruct e Meta Llama-3.2 90B Vision
Instruct includono: gif, jpeg, png e webp.
Per consentire ad Amazon Bedrock l’accesso ai file immagine, aggiungi una policy IAM simile a quella in Autorizzazioni per accedere ai file di addestramento e convalida e scrivere i file di output in S3 sul ruolo del servizio di personalizzazione del modello Amazon Bedrock che hai impostato o che è stato impostato automaticamente per te nella console. I percorsi Amazon S3 che fornisci nel set di dati di addestramento devono trovarsi nelle cartelle specificate nella policy.
Conversazioni a turno singolo
Ogni oggetto JSON per conversazioni a turno singolo è costituito da un messaggio utente e da un messaggio di assistente. Il messaggio dell’utente include un campo ruolo impostato su utente e un campo contenuto contenente un array con un campo type (testo o immagine) che descrive la modalità di input. Per gli input di testo, il campo content include un campo text con la domanda o il prompt dell’utente. Per gli input di immagini, il campo content specifica l’immagine format (ad esempio, jpeg, png) e la relativa source con un uri che indica la posizione dell’immagine in Amazon S3. uri rappresenta il percorso univoco per l’immagine archiviata in un bucket Amazon S3, in genere nel formato s3://<bucket-name>/<path-to-file>. Il messaggio dell’assistente include un campo role impostato su assistente e un campo content contenente un array con un campo type impostato su testo e un campo text contenente la risposta generata dall’assistente.
Formato di esempio
{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "You are a smart assistant that answers questions respectfully" }], "messages": [{ "role": "user", "content": [{ "text": "What does the text in this image say?" }, { "image": { "format": "png", "source": { "s3Location": { "uri": "s3://your-bucket/your-path/your-image.png", "bucketOwner": "your-aws-account-id" } } } } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] } ] }
Conversazioni a più turni
Ogni oggetto JSON per conversazioni a più turni contiene una sequenza di messaggi con ruoli alternati, in cui i messaggi dell’utente e dell’assistente sono strutturati in modo coerente per consentire scambi altrettanto coerenti. I messaggi utente includono un role campo impostato su utente e un campo content che descrive la modalità di input. Per gli input di testo, il campo content include un campo text con la domanda o il follow-up dell’utente, mentre per gli input di immagini, specifica l’immagine format e la relativa source con un uri che indica la posizione dell’immagine in Amazon S3. urifunge da identificatore univoco nel formato s3://<bucket-name>/< path-to-file > e consente al modello di accedere all'immagine dal bucket Amazon S3 designato. I messaggi dell’assistente includono un campo role impostato su assistente e un campo content contenente un array con un campo type impostato su testo e un campo text contenente la risposta generata dall’assistente. Le conversazioni possono estendersi su più scambi, permettendo all’assistente di mantenere il contesto e fornire risposte coerenti per l’intera durata.
Formato di esempio
{ "schemaVersion": "bedrock-conversation-2024", "system": [{ "text": "You are a smart assistant that answers questions respectfully" }], "messages": [{ "role": "user", "content": [{ "text": "What does the text in this image say?" }, { "image": { "format": "png", "source": { "s3Location": { "uri": "s3://your-bucket/your-path/your-image.png", "bucketOwner": "your-aws-account-id" } } } } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] }, { "role": "user", "content": [{ "text": "What does the text in this image say?" } ] }, { "role": "assistant", "content": [{ "text": "The text in the attached image says 'LOL'." }] } ] }
Nota
I modelli Amazon Nova presentano requisiti di fine-tuning diversi. Per eseguire il fine-tuning di questi modelli, segui le istruzioni riportate in Fine-tuning dei modelli Amazon Nova.
Per i text-to-image nostri image-to-embedding modelli, prepara un set di dati di addestramento. I set di dati di convalida non sono supportati. Ogni riga dell’oggetto JSON è un esempio contenente un image-ref, l’URI di Amazon S3 per un’immagine e un caption che potrebbe essere un prompt per l’immagine.
L'immagine deve essere in formato PNG o JPEG.
{"image-ref": "s3://bucket/path/to/image001.png", "caption": "<prompt text>"} {"image-ref": "s3://bucket/path/to/image002.png", "caption": "<prompt text>"}{"image-ref": "s3://bucket/path/to/image003.png", "caption": "<prompt text>"}
Di seguito è riportato un esempio:
{"image-ref": "s3://amzn-s3-demo-bucket/my-pets/cat.png", "caption": "an orange cat with white spots"}
Per consentire ad Amazon Bedrock di accedere ai file di immagine, aggiungi una policy IAM simile a quella in Autorizzazioni per accedere ai file di addestramento e convalida e scrivere i file di output in S3 sul ruolo del servizio di personalizzazione del modello di Amazon Bedrock che hai impostato o che è stato impostato automaticamente per te nella console. I percorsi Amazon S3 che fornisci nel set di dati di addestramento devono trovarsi nelle cartelle specificate nella policy.