Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Creare un prompt utilizzando Gestione prompt
Quando si crea un prompt, sono disponibili le seguenti opzioni:
-
Scrivere il messaggio del prompt che funge da input per un modello di fondazione per generare un output.
-
Utilizzare le parentesi graffe doppie per includere le variabili (come in {{variable}}) nel messaggio di richiesta che può essere compilato quando si chiama il prompt.
-
Scegliere un modello con cui invocare il prompt o, se si intende utilizzare il prompt con un agente, lasciarlo non specificato. Se si sceglie un modello, è anche possibile modificare le configurazioni di inferenza da utilizzare. Per informazioni sui parametri di inferenza per modelli diversi, consulta Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione.
Tutti i prompt supportano i seguenti parametri di inferenza di base:
maxTokens: numero massimo di token da consentire nella risposta generata.
stopSequences: elenco di sequenze di arresto. Una sequenza di arresto è una sequenza di caratteri che determina l’interruzione della generazione della risposta da parte del modello.
temperature: probabilità che il modello selezioni opzioni con maggiore probabilità durante la generazione di una risposta.
topP: percentuale di candidati più probabili che il modello considera per il token successivo.
Se un modello supporta parametri di inferenza aggiuntivi, è possibile specificarli come campi aggiuntivi per il prompt. Fornisci i campi aggiuntivi in un oggetto JSON. L’esempio seguente mostra come impostare top_k, disponibile nei modelli Anthropic Claude, ma non è un parametro di inferenza di base.
{
"top_k": 200
}
Per informazioni sui parametri di inferenza del modello, consulta Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione.
L’impostazione di un parametro di inferenza di base come campo aggiuntivo non sovrascrive il valore impostato nella console.
Se il modello scelto per il prompt supporta l’API Converse (per maggiori informazioni, consulta Avvio di una conversazione con le operazioni dell’API Converse), è possibile includere gli elementi seguenti durante la creazione del prompt:
-
Un prompt di sistema per fornire istruzioni o contesto al modello.
-
Prompt precedenti (messaggi utente) e risposte del modello (messaggi assistente) come cronologia delle conversazioni che il modello deve considerare nella generazione di una risposta per il messaggio finale dell’utente.
-
(Se supportato dal modello) Strumenti per il modello da utilizzare durante la generazione della risposta.
-
(Se supportato dal modello) Caching dei prompt per ridurre i costi memorizzando nella cache prompt di grandi dimensioni o utilizzati di frequente. In base al modello, è possibile memorizzare nella cache istruzioni di sistema, strumenti e messaggi (di utente e assistente). Il caching dei prompt crea un punto di controllo della cache per il prompt se il prefisso totale del prompt soddisfa il numero minimo di token richiesto dal modello. Quando viene rilevata una variabile modificata in un prompt, il caching dei prompt crea un nuovo punto di controllo della cache (se il numero di token di input raggiunge il minimo richiesto dal modello).
Per informazioni su come creare un prompt in Gestione prompt, scegli la scheda relativa al metodo che preferisci, quindi segui la procedura:
- Console
-
Come creare un prompt
-
Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo https://console.aws.amazon.com/bedrock.
-
Seleziona Gestione prompt nel riquadro di navigazione a sinistra. Scegli Crea prompt.
-
Fornisci un nome e una descrizione (facoltativa) per il prompt.
-
Per crittografare il prompt utilizzando la chiave gestita dal cliente, nella sezione Selezione chiave KMS, scegli Personalizza le impostazioni di crittografia (avanzate). Se ometti questo campo, il prompt viene crittografato con una Chiave gestita da AWS. Per ulteriori informazioni, consulta Chiavi AWS KMS.
-
Scegli Crea prompt. Il prompt viene creato e l’utente viene indirizzato a Generatore di prompt per il nuovo prompt creato, in cui è possibile configurarlo.
-
Puoi continuare con la seguente procedura e configurare subito il prompt o tornare a Generatore di prompt in un secondo momento.
Come configurare il prompt
-
Se non sei già nel generatore di prompt, procedi come segue:
-
Accedi alla Console di gestione AWS con un’identità IAM che disponga delle autorizzazioni per utilizzare la console Amazon Bedrock. Quindi, apri la console Amazon Bedrock all’indirizzo https://console.aws.amazon.com/bedrock.
-
Seleziona Gestione prompt nel riquadro di navigazione a sinistra. Quindi, scegli un prompt nella sezione Prompt.
-
Nella sezione Bozza prompt, scegli Modifica nel generatore di prompt.
-
Utilizza il riquadro Prompt per creare il prompt. Immetti il prompt nell’ultima casella Messaggio dell’utente. Se il modello supporta l’API Converse o l’API Messages AnthropicClaude, è anche possibile includere un prompt di sistema e i precedenti messaggi utente e messaggi assistente per fornire contesto.
Quando scrivi un prompt, puoi includere variabili tra parentesi graffe doppie (come in {{variable}}). Ogni variabile inclusa viene visualizzata nella sezione variabili di test.
-
(Facoltativo) È possibile modificare il prompt come indicato di seguito:
-
Nel riquadro Configurazioni, esegui queste operazioni:
-
Scegli un valore per Risorsa di IA generativa per eseguire l’inferenza.
-
In Parametri di inferenza, imposta i parametri di inferenza da utilizzare.
-
Se il modello supporta il ragionamento, attiva Ragionamento per includere il ragionamento del modello nella risposta. In Token di ragionamento, configura il numero di token di ragionamento che il modello può utilizzare.
-
In Campi aggiuntivi per la richiesta del modello, scegli Configura to specificare altri parametri di inferenza, oltre a quelli indicati in Parametri di inferenza.
-
Se il modello scelto supporta gli strumenti, scegli Configura strumenti per utilizzare strumenti con il prompt.
-
Se il modello scelto supporta il caching dei prompt, scegli una delle seguenti opzioni (la disponibilità varia in base al modello):
-
Nessuna: non viene eseguita alcun caching dei prompt.
-
Strumenti: solo gli strumenti presenti nel prompt vengono memorizzati nella cache.
-
Strumenti, istruzioni di sistema: gli strumenti e le istruzioni di sistema presenti nel prompt vengono memorizzati nella cache.
-
Strumenti, istruzioni di sistema e messaggi: gli strumenti, le istruzioni di sistema e i messaggi (di utente e assistente) presenti nel prompt vengono memorizzati nella cache.
-
Per confrontare varianti diverse del prompt, scegli Confronta varianti. Nella pagina di confronto puoi eseguire queste operazioni:
-
Per aggiungere una variante, scegli il segno più. È possibile aggiungere fino a un massimo di tre varianti.
-
Dopo aver specificato i dettagli di una variante, puoi specificare qualsiasi valore in Variabili di test e scegliere Esegui per testare l’output della variante.
-
Per eliminare una variante, scegli i tre puntini e seleziona Rimuovi dal confronto.
-
Per sostituire la bozza di lavoro e lasciare la modalità di confronto, scegli Salva come bozza. Tutte le altre varianti vengono eliminate.
-
Per uscire dalla modalità di confronto, scegli Esci dalla modalità di confronto.
-
Al termine della configurazione, sono disponibili le opzioni seguenti:
- API
-
Per creare un prompt, invia una richiesta CreatePrompt con un endpoint in fase di compilazione di Agent per Amazon Bedrock.
I seguenti campi sono obbligatori:
| Campo |
Breve descrizione |
| name |
Nome del prompt. |
| variants |
Elenco di diverse configurazioni per il prompt (vedi di seguito). |
| defaultVariant |
Nome della variante predefinita. |
Ogni variante nell’elenco variants è un oggetto PromptVariant della seguente struttura generale:
{
"name": "string",
# modelId or genAiResource (see below)
"templateType": "TEXT",
"templateConfiguration": # see below,
"inferenceConfiguration": {
"text": {
"maxTokens": int,
"stopSequences": ["string", ...],
"temperature": float,
"topP": float
}
},
"additionalModelRequestFields": {
"key": "value",
...
},
"metadata": [
{
"key": "string",
"value": "string"
},
...
]
}
Compila i campi come segue:
-
name: immetti un nome per la variante.
-
Includi uno di questi campi, a seconda della risorsa di invocazione del modello da utilizzare:
-
modelId: per specificare un modello di fondazione o un profilo di inferenza da utilizzare con il prompt, immetti l’ARN o l’ID relativo.
-
genAiResource: per specificare un agente, immetti l’ID o l’ARN relativo. L’input è un oggetto genAiResource JSON con il seguente formato:
{
"genAiResource": {
"agent": {
"agentIdentifier": "string"
}
}
Se includi il campo genAiResource, puoi solo testare il prompt nella console. Per testare un prompt con un agente nell’API, devi inserire il testo del prompt direttamente nel campo inputText della richiesta InvokeAgent.
-
templateType: immetti TEXT o CHAT. CHAT è compatibile solo con i modelli che supportano l’API Converse. Se desideri utilizzare il caching dei prompt, devi utilizzare il tipo di modello CHAT.
-
templateConfiguration: il valore dipende dal tipo di modello specificato:
-
inferenceConfiguration: il campo text viene mappato a un oggetto PromptModelInferenceConfiguration. Tale campo contiene parametri di inferenza comuni a tutti i modelli. Per ulteriori informazioni sui parametri di inferenza, consulta Influenza sulla generazione della risposta con i parametri di inferenza.
-
additionalModelRequestFields: consente di indicare i parametri di inferenza specifici del modello con cui si esegue l’inferenza. Per ulteriori informazioni sui parametri di inferenza specifici del modello, consulta Parametri di richiesta di inferenza e campi di risposta per i modelli di fondazione.
-
metadati: metadati da associare alla variante del prompt. È possibile aggiungere coppie chiave-valore all’array per etichettare la variante del prompt con metadati.
I seguenti campi sono facoltativi:
La risposta crea una versione DRAFT e restituisce un ID e un ARN che è possibile utilizzare come identificatore di prompt per altre richieste API relative al prompt.