Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Preparazione dei set di dati di addestramento per il fine-tuning e il pre-addestramento continuo
Per preparare i set di dati di addestramento e convalida per il modello personalizzato, crea file .jsonl, ogni riga dei quali è un oggetto JSON corrispondente a un record. Per poter avviare un processo di personalizzazione del modello, è prima necessario preparare almeno un set di dati di addestramento. I file creati devono essere conformi al formato del metodo e del modello scelti per la personalizzazione. I record in esso contenuti devono essere conformi ai requisiti di dimensione a seconda del modello.
Per ulteriori informazioni sui requisiti del modello, consulta Requisiti dei modelli per i set di dati di addestramento e convalida. Per visualizzare le quote predefinite applicabili ai set di dati di addestramento e convalida utilizzati per personalizzare diversi modelli, consulta le quote Somma dei record di addestramento e convalida in Endpoint e quote di Amazon Bedrock in Riferimenti generali di AWS.
Se un set di dati di convalida è supportato e il formato del set di dati di addestramento e convalida dipende dai seguenti fattori:
-
Il tipo di processo di personalizzazione del fine tuning (fine-tuning o pre-addestramento continuo).
-
Le modalità di input e output dei dati.
Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Esecuzione del fine-tuning dei modelli Amazon Nova.
Argomenti
Modalità supportate per il fine-tuning e il pre-addestramento continuo
Requisiti dei modelli per i set di dati di addestramento e convalida
Preparazione dei dati per eseguire il fine-tuning dei modelli da testo a testo
Preparare i dati per il fine-tuning dei modelli di elaborazione di immagini e testo
Preparazione dei dati per il fine-tuning della generazione di immagini e dei modelli di embedding
Preparazione dei set di dati per il pre-addestramento continuo
Modalità supportate per il fine-tuning e il pre-addestramento continuo
Nelle sezioni seguenti vengono descritte le varie funzionalità di fine-tuning e pre-addestramento supportate da ciascun modello, organizzate in base alle relative modalità di input e output. Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Esecuzione del fine-tuning dei modelli Amazon Nova.
Modelli da testo a testo
È possibile eseguire il fine-tuning di modelli da testo a testo per varie attività basate su testo, incluse applicazioni conversazionali e non conversazionali. Per informazioni sulla preparazione dei dati per il fine-tuning dei modelli da testo a testo, consulta Preparazione dei dati per eseguire il fine-tuning dei modelli da testo a testo.
I seguenti modelli non conversazionali sono ottimizzati per attività quali riepilogo, traduzione e risposta a domande:
Amazon Titan Text G1 - Express
Amazon Titan Text G1 - Lite
Amazon Titan Text Premier
Cohere Command
Cohere Command Light
Meta Llama 3.1 8B Instruct
Meta Llama 3.1 70B Instruct
I seguenti modelli conversazionali sono progettati per interazioni a turno singolo e multiplo. Se un modello utilizza l’API Converse, il set di dati per il fine-tuning deve seguire il formato dei messaggi dell’API Converse e includere i messaggi di sistema, utente e assistente. Per degli esempi, consulta Preparazione dei dati per eseguire il fine-tuning dei modelli da testo a testo. Per ulteriori informazioni sulle operazioni API Converse, consulta Avvio di una conversazione con le operazioni dell’API Converse.
Anthropic Claude 3 Haiku
Meta Llama 3.2 1B Instruct (formato API Converse)
Meta Llama 3.2 3B Instruct (formato API Converse)
Meta Llama 3.2 11B Instruct Vision (formato API Converse)
Meta Llama 3.2 90B Instruct Vision (formato API Converse)
Meta Llama 3.3 70B Vision Instruct (formato API Converse)
Modelli da testo-immagine a testo e da testo a immagine
I seguenti modelli supportano il fine-tuning per la generazione di immagini e l’elaborazione testo-immagine. Questi modelli elaborano o generano immagini sulla base di input testuali o generano testo in base a input sia testuali che di immagini. Per informazioni sulla preparazione dei dati per il fine-tuning dei modelli da testo-immagine a testo e da testo a immagine, consulta Preparare i dati per il fine-tuning dei modelli di elaborazione di immagini e testo.
Amazon Titan Image Generator G1 V1
Meta Llama 3.2 11B Instruct Vision
Meta Llama 3.2 90B Instruct Vision
Meta Llama 3.3 70B Vision Instruct
Da immagine e embedding
I seguenti modelli supportano il fine-tuning per attività quali classificazione e recupero. Questi modelli generano rappresentazioni numeriche (embedding) a partire da input di immagini. Per informazioni sulla preparazione dei dati per il fine-tuning dei modelli da immagine a embedding, consulta Preparazione dei dati per il fine-tuning della generazione di immagini e dei modelli di embedding.
Amazon Titan Multimodal Embeddings G1
Amazon Titan Image Generator G1 V1
Pre-addestramento continuo: da testo a testo
I seguenti modelli possono essere utilizzati per il pre-addestramento continuo. Questi modelli supportano il pre-addestramento continuo su dati specifici del dominio per migliorare la propria knowledge base. Per informazioni sulla preparazione dei dati per il pre-addestramento continuo dei modelli da testo a testo, consulta Preparazione dei set di dati per il pre-addestramento continuo.
Amazon Titan Text G1 - Express
Amazon Titan Text G1 - Lite