Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Preparazione dei dati per eseguire il fine-tuning dei modelli da testo a testo
Nota
Per informazioni sull’esecuzione del fine-tuning dei modelli Amazon Nova, consulta Eseguire il fine-tuning dei modelli Amazon Nova.
Per eseguire il fine-tuning dei modelli da testo a testo, ogni oggetto JSON è un esempio contenente campi strutturati progettati per guidare il modello verso la generazione dell’output testuale desiderato in base a un prompt testuale fornito. Il formato dei dati varia a seconda del caso d’uso, che può essere suddiviso in due grandi categorie: casi d’uso non conversazionali e casi d’uso conversazionali. Le attività non conversazionali prevedono prompt e output autonomi, mentre le attività conversazionali possono essere ulteriormente suddivise in scambi a turno singolo, in cui il modello risponde a un singolo input dell’utente, e dialoghi a più turni, in cui il modello mantiene il contesto attraverso più scambi.
Attività non conversazionali
Le attività non conversazionali implicano la generazione di un singolo output per un determinato input. Ogni esempio di set di dati include un campo prompt contenente il testo di input e un campo completion con l’output previsto. Questo formato supporta una gamma di attività come la risposta a domande, il riepilogo, la traduzione, il completamento del testo e l’estrazione di informazioni.
Formato di esempio
{"prompt": "What is the capital of France?", "completion": "The capital of France is Paris."} {"prompt": "Summarize the article about climate change.", "completion": "Climate change refers to the long-term alteration of temperature and typical weather patterns in a place."}
Utilizza circa 6 caratteri per token per stimare il numero di token per pianificare la dimensione del set di dati.
Formato API Converse (turno singolo e multi turno)
Per utilizzare l’API Converse, chiama le operazioni Converse o ConverseStream per inviare messaggi a un modello. Per chiamare Converse, è richiesta l’autorizzazione per l’operazione bedrock:InvokeModel. Per chiamare ConverseStream, è richiesta l’autorizzazione per l’operazione bedrock:InvokeModelWithResponseStream. Per ulteriori informazioni, consulta Utilizzo dell’API Converse. Per ulteriori informazioni sulle operazioni API Converse, consulta Avvio di una conversazione con le operazioni dell’API Converse.
Formato di esempio
{ "schemaVersion": "bedrock-conversation-2024", "system": [ { "text": "You are a digital assistant with a friendly personality" } ], "messages": [ { "role": "user", "content": [ { "text": "What is the capital of Mars?" } ] }, { "role": "assistant", "content": [ { "text": "Mars does not have a capital. Perhaps it will one day." } ] } ] }
Solo per Anthropic Claude 3 Haiku: conversazioni a turno singolo
Le attività conversazionali a turno singolo prevedono scambi isolati, in cui il modello genera una risposta basandosi esclusivamente sull’input corrente dell’utente senza considerare il contesto precedente. Ogni esempio di set di dati utilizza un array di messaggi, con ruoli alternati di user e assistant.
Formato
{"system": "<system message>","messages":[{"role": "user", "content": "<user query>"},{"role": "assistant", "content": "<expected generated text>"}]}
Esempio
{"system": "You are an helpful assistant.","messages":[{"role": "user", "content": "what is AWS"},{"role": "assistant", "content": "it's Amazon Web Services."}]}
Solo per Anthropic Claude 3 Haiku: conversazioni a più turni
Le attività conversazionali a più turni prevedono dialoghi prolungati in cui il modello deve generare risposte preservando il contesto degli scambi precedenti. Questo formato cattura la natura dinamica delle attività interattive, come l’assistenza clienti o le discussioni complesse.
Formato
{"system": "<system message>","messages":[{"role": "user", "content": "<user query 1>"},{"role": "assistant", "content": "<expected generated text 1>"}, {"role": "user", "content": "<user query 2>"},{"role": "assistant", "content": "<expected generated text 2>"}]}
Esempio
{"system": "system message","messages":[{"role": "user", "content": "Hello there."},{"role": "assistant", "content": "Hi, how can I help you?"},{"role": "user", "content": "what are LLMs?"},{"role": "assistant", "content": "LLM means large language model."},]}