Preparazione dei set di dati di addestramento per il fine-tuning e il pre-addestramento continuo - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Preparazione dei set di dati di addestramento per il fine-tuning e il pre-addestramento continuo

Per preparare i set di dati di addestramento e convalida per il modello personalizzato, crea file .jsonl, ogni riga dei quali è un oggetto JSON corrispondente a un record. Per poter avviare un processo di personalizzazione del modello, è prima necessario preparare almeno un set di dati di addestramento. I file creati devono essere conformi al formato del metodo e del modello scelti per la personalizzazione. I record in esso contenuti devono essere conformi ai requisiti di dimensione a seconda del modello.

Per ulteriori informazioni sui requisiti del modello, consulta Requisiti dei modelli per i set di dati di addestramento e convalida. Per visualizzare le quote predefinite applicabili ai set di dati di addestramento e convalida utilizzati per personalizzare diversi modelli, consulta le quote Somma dei record di addestramento e convalida in Endpoint e quote di Amazon Bedrock in Riferimenti generali di AWS.

Se un set di dati di convalida è supportato e il formato del set di dati di addestramento e convalida dipende dai seguenti fattori:

  • Il tipo di processo di personalizzazione del fine tuning (fine-tuning o pre-addestramento continuo).

  • Le modalità di input e output dei dati.

Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Esecuzione del fine-tuning dei modelli Amazon Nova.

Modalità supportate per il fine-tuning e il pre-addestramento continuo

Nelle sezioni seguenti vengono descritte le varie funzionalità di fine-tuning e pre-addestramento supportate da ciascun modello, organizzate in base alle relative modalità di input e output. Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Esecuzione del fine-tuning dei modelli Amazon Nova.

Modelli da testo a testo

È possibile eseguire il fine-tuning di modelli da testo a testo per varie attività basate su testo, incluse applicazioni conversazionali e non conversazionali. Per informazioni sulla preparazione dei dati per il fine-tuning dei modelli da testo a testo, consulta Preparazione dei dati per eseguire il fine-tuning dei modelli da testo a testo.

I seguenti modelli non conversazionali sono ottimizzati per attività quali riepilogo, traduzione e risposta a domande:

  • Amazon Titan Text G1 - Express

  • Amazon Titan Text G1 - Lite

  • Amazon Titan Text Premier

  • Cohere Command

  • Cohere Command Light

  • Meta Llama 3.1 8B Instruct

  • Meta Llama 3.1 70B Instruct

I seguenti modelli conversazionali sono progettati per interazioni a turno singolo e multiplo. Se un modello utilizza l’API Converse, il set di dati per il fine-tuning deve seguire il formato dei messaggi dell’API Converse e includere i messaggi di sistema, utente e assistente. Per degli esempi, consulta Preparazione dei dati per eseguire il fine-tuning dei modelli da testo a testo. Per ulteriori informazioni sulle operazioni API Converse, consulta Avvio di una conversazione con le operazioni dell’API Converse.

  • Anthropic Claude 3 Haiku

  • Meta Llama 3.2 1B Instruct (formato API Converse)

  • Meta Llama 3.2 3B Instruct (formato API Converse)

  • Meta Llama 3.2 11B Instruct Vision (formato API Converse)

  • Meta Llama 3.2 90B Instruct Vision (formato API Converse)

  • Meta Llama 3.3 70B Vision Instruct (formato API Converse)

Modelli da testo-immagine a testo e da testo a immagine

I seguenti modelli supportano il fine-tuning per la generazione di immagini e l’elaborazione testo-immagine. Questi modelli elaborano o generano immagini sulla base di input testuali o generano testo in base a input sia testuali che di immagini. Per informazioni sulla preparazione dei dati per il fine-tuning dei modelli da testo-immagine a testo e da testo a immagine, consulta Preparare i dati per il fine-tuning dei modelli di elaborazione di immagini e testo.

  • Amazon Titan Image Generator G1 V1

  • Meta Llama 3.2 11B Instruct Vision

  • Meta Llama 3.2 90B Instruct Vision

  • Meta Llama 3.3 70B Vision Instruct

Da immagine e embedding

I seguenti modelli supportano il fine-tuning per attività quali classificazione e recupero. Questi modelli generano rappresentazioni numeriche (embedding) a partire da input di immagini. Per informazioni sulla preparazione dei dati per il fine-tuning dei modelli da immagine a embedding, consulta Preparazione dei dati per il fine-tuning della generazione di immagini e dei modelli di embedding.

  • Amazon Titan Multimodal Embeddings G1

  • Amazon Titan Image Generator G1 V1

Pre-addestramento continuo: da testo a testo

I seguenti modelli possono essere utilizzati per il pre-addestramento continuo. Questi modelli supportano il pre-addestramento continuo su dati specifici del dominio per migliorare la propria knowledge base. Per informazioni sulla preparazione dei dati per il pre-addestramento continuo dei modelli da testo a testo, consulta Preparazione dei set di dati per il pre-addestramento continuo.

  • Amazon Titan Text G1 - Express

  • Amazon Titan Text G1 - Lite