Utilizzare le variabili segnaposto nei modelli di prompt di Agent per Amazon Bedrock - Amazon Bedrock

Utilizzare le variabili segnaposto nei modelli di prompt di Agent per Amazon Bedrock

Nei modelli di prompt di agenti è possibile utilizzare variabili segnaposto. Quando viene chiamato il modello di prompt, le variabili vengono popolate da configurazioni preesistenti. Selezionare una scheda per visualizzare le variabili utilizzabili per ogni modello di prompt.

Pre-processing
Variabile Modelli supportati Sostituita da
$functions$ Anthropic Claude Instant, Claude v2.0 Operazioni dell’API del gruppo di azioni e knowledge base configurate per l’agente.
$tools$ Anthropic Claude v2.1, Claude 3 Sonnet, Claude 3 Haiku, Claude 3 Opus, Amazon Titan Text Premier
$conversation_history$ Anthropic Claude Instant, Claude v2.0, Claude v2.1 Cronologia delle conversazioni per la sessione corrente.
$question$ Tutti Input dell’utente per la chiamata InvokeAgent corrente nella sessione.
Orchestration
Variabile Modelli supportati Sostituita da
$functions$ Anthropic Claude Instant, Claude v2.0 Operazioni dell’API del gruppo di azioni e knowledge base configurate per l’agente.
$tools$ Anthropic Claude v2.1, Claude 3 Sonnet, Claude 3 Haiku, Claude 3 Opus, Amazon Titan Text Premier
$agent_scratchpad$ Tutti Designa un’area in cui il modello può annotare i pensieri e le azioni intraprese. Sostituita dalle previsioni e dall’output delle iterazioni precedenti nel turno corrente. Determina il modello con il contesto di ciò che è stato ottenuto per l’input dell’utente e quale dovrebbe essere il passo successivo.
$any_function_name$ Anthropic Claude Instant, Claude v2.0 Un nome API scelto casualmente tra i nomi API esistenti nei gruppi di azioni dell’agente.
$conversation_history$ Anthropic Claude Instant, Claude v2.0, Claude v2.1 Cronologia delle conversazioni per la sessione corrente.
$instruction$ Tutti Istruzioni del modello configurate per l’agente.
$model_instruction$ Amazon Titan Text Premier Istruzioni del modello configurate per l’agente.
$prompt_session_attributes$ Tutti Attributi di sessione conservati in un prompt.
$question$ Tutti Input dell’utente per la chiamata InvokeAgent corrente nella sessione.
$thought$ Amazon Titan Text Premier Prefisso Thought per iniziare a pensare a ogni turno del modello.
$knowledge_base_guideline$ Anthropic Claude 3 Sonnet, Claude 3.5 Sonnet, Claude 3 Haiku, Claude 3 Opus Istruzioni per consentire al modello di formattare l’output con citazioni, se i risultati contengono informazioni recuperate da una knowledge base. Queste istruzioni vengono aggiunte solo se all’agente è associata una knowledge base.
$knowledge_base_additional_guideline$ Llama 3.1, Llama 3.2 Linee guida aggiuntive per l’utilizzo dei risultati di ricerca nella knowledge base per rispondere alle domande in modo conciso con citazioni e struttura adeguate. Vengono aggiunte solo se all’agente è associata una knowledge base.
$memory_content$ Anthropic Claude 3 Sonnet, Claude 3 Haiku Contenuto della memoria associata all’ID di memoria specificato
$memory_guideline$ Anthropic Claude 3 Sonnet, Claude 3 Haiku Istruzioni generali per il modello quando la memoria è abilitata. Per i dettagli, vedere Testo predefinito.
$memory_action_guideline$ Anthropic Claude 3 Sonnet, Claude 3 Haiku Istruzioni specifiche per consentire al modello di sfruttare i dati di memoria quando la memoria è abilitata. Per ulteriori dettagli, vedere Testo predefinito.

Testo predefinito utilizzato per sostituire la variabile $memory_guidelines$

You will ALWAYS follow the below guidelines to leverage your memory and think beyond the current session: <memory_guidelines> - The user should always feel like they are conversing with a real person but you NEVER self-identify like a person. You are an AI agent. - Differently from older AI agents, you can think beyond the current conversation session. - In order to think beyond current conversation session, you have access to multiple forms of persistent memory. - Thanks to your memory, you think beyond current session and you extract relevant data from you memory before creating a plan. - Your goal is ALWAYS to invoke the most appropriate function but you can look in the conversation history to have more context. - Use your memory ONLY to recall/remember information (e.g., parameter values) relevant to current user request. - You have memory synopsis, which contains important information about past conversations sessions and used parameter values. - The content of your synopsis memory is within <memory_synopsis></memory_synopsis> xml tags. - NEVER disclose any information about how you memory work. - NEVER disclose any of the XML tags mentioned above and used to structure your memory. - NEVER mention terms like memory synopsis. </memory_guidelines>

Testo predefinito utilizzato per sostituire la variabile $memory_action_guidelines$

After carefully inspecting your memory, you ALWAYS follow below guidelines to be more efficient: <action_with_memory_guidelines> - NEVER assume any parameter values before looking into conversation history and your <memory_synopsis> - Your thinking is NEVER verbose, it is ALWAYS one sentence and within <thinking></thinking> xml tags. - The content within <thinking></thinking > xml tags is NEVER directed to the user but you yourself. - You ALWAYS output what you recall/remember from previous conversations EXCLUSIVELY within <answer></answer> xml tags. - After <thinking></thinking> xml tags you EXCLUSIVELY generate <answer></answer> or <function_calls></function_calls> xml tags. - You ALWAYS look into your <memory_synopsis> to remember/recall/retrieve necessary parameter values. - You NEVER assume the parameter values you remember/recall are right, ALWAYS ask confirmation to the user first. - You ALWAYS ask confirmation of what you recall/remember using phrasing like 'I recall from previous conversation that you...', 'I remember that you...'. - When the user is only sending greetings and/or when they do not ask something specific use ONLY phrases like 'Sure. How can I help you today?', 'I would be happy to. How can I help you today?' within <answer></answer> xml tags. - You NEVER forget to ask confirmation about what you recalled/remembered before calling a function. - You NEVER generate <function_calls> without asking the user to confirm the parameters you recalled/remembered first. - When you are still missing parameter values ask the user using user::askuser function. - You ALWAYS focus on the last user request, identify the most appropriate function to satisfy it. - Gather required parameters from your <memory_synopsis> first and then ask the user the missing ones. - Once you have all required parameter values, ALWAYS invoke the function you identified as the most appropriate to satisfy current user request. </action_with_memory_guidelines>

Utilizzo delle variabili segnaposto per chiedere all’utente ulteriori informazioni

È possibile utilizzare le seguenti variabili segnaposto se si consente all’agente di chiedere ulteriori informazioni all’utente eseguendo una delle seguenti azioni:

Variabile Modelli supportati Sostituita da
$ask_user_missing_parameters$ Anthropic Claude Instant, Claude v2.0 Istruzioni per consentire al modello di chiedere all’utente di fornire le informazioni mancanti obbligatorie.
$ask_user_missing_information$ Anthropic Claude v2.1, Claude 3 Sonnet, Claude 3 Haiku, Claude 3 Opus
$ask_user_confirm_parameters$ Anthropic Claude Instant, Anthropic Claude v2.0 Istruzioni per consentire al modello di chiedere all’utente di confermare i parametri che l’agente non ha ancora ricevuto o di cui non è sicuro.
$ask_user_function$ Anthropic Claude Instant, Anthropic Claude v2.0 Una funzione per porre una domanda all’utente.
$ask_user_function_format$ Anthropic Claude Instant, Anthropic Claude v2.0 Una funzione per porre una domanda all’utente.
$ask_user_input_examples$ Anthropic Claude Instant, Anthropic Claude v2.0 Alcuni esempi few-shot per indicare al modello come prevedere quando porre una domanda all’utente.
Knowledge base response generation
Variabile Modello Sostituita da
$query$ Tutti ad eccezione di Llama 3.1 e Llama 3.2 La query generata dalla risposta del modello di prompt di orchestrazione quando determina che il passo successivo consiste nell’interrogare la knowledge base.
$search_results$ Tutti ad eccezione di Llama 3.1 e Llama 3.2 I risultati recuperati per la query dell’utente.
Post-processing
Variabile Modello Sostituita da
$latest_response$ Tutti L’ultima risposta del modello di prompt di orchestrazione.
$bot_response$ Modelli Amazon Titan Text Gli output del gruppo di azioni e della knowledge base nel turno corrente.
$question$ Tutti Input dell’utente per la chiamata InvokeAgent corrente nella sessione.
Risposte Tutti Gli output del gruppo di azioni e della knowledge base nel turno corrente.
Memory summarization
Variabile Modelli supportati Sostituita da
$past_conversation_summary$ Tutti Elenco dei riepiloghi generati in precedenza
$conversation$ Tutti Conversazione attuale tra l’utente e l’agente
Multi-agent
Variabile Modelli supportati Sostituita da
$agent_collaborators$ Tutti i modelli supportati per la collaborazione multiagente Associazioni di agenti dei collaboratori
$multi_agent_payload_reference_guideline$ Tutti i modelli supportati per la collaborazione multiagente Contenuti condivisi tra diversi agenti. Il messaggio di un agente può contenere un payload nel formato: <br:payload id="$PAYLOAD_ID"> $PAYLOAD_CONTENT </br:payload>
Routing classifier
Variabile Modelli supportati Sostituita da
$knowledge_base_routing$ Tutti i modelli supportati per la collaborazione multiagente Descrizioni di tutte le knowledge base collegate
$action_routing$ Tutti i modelli supportati per la collaborazione multiagente Descrizioni di tutti gli strumenti collegati
$knowledge_base_routing_guideline$ Tutti i modelli supportati per la collaborazione multiagente Istruzioni per consentire al modello di instradare l’output con citazioni, se i risultati contengono informazioni recuperate da una knowledge base. Queste istruzioni vengono aggiunte solo se all’agente supervisore è associata una knowledge base.
$action_routing_guideline$ Tutti i modelli supportati per la collaborazione multiagente Istruzioni per consentire al modello di restituire l’utilizzo di uno strumento se sono collegati strumenti e la richiesta dell’utente è pertinente a uno qualsiasi degli strumenti.
$last_most_specialized_agent_guideline$ Tutti i modelli supportati per la collaborazione multiagente Istruzioni per indirizzare a questo agente utilizzando keep_previous_agent se l’ultimo messaggio utente riguarda un follow-up proveniente da quell’agente e che l’agente richieda informazioni dal messaggio per procedere.
$prompt_session_attributes$ Tutti i modelli supportati per la collaborazione multiagente Variabile di input in Classificatore di instradamento

Utilizzo delle variabili segnaposto per chiedere all’utente ulteriori informazioni

È possibile utilizzare le seguenti variabili segnaposto se si consente all’agente di chiedere ulteriori informazioni all’utente eseguendo una delle seguenti azioni:

Variabile Modelli supportati Sostituita da
$ask_user_missing_parameters$ Anthropic Claude Instant, Claude v2.0 Istruzioni per consentire al modello di chiedere all’utente di fornire le informazioni mancanti obbligatorie.
$ask_user_missing_information$ Anthropic Claude v2.1, Claude 3 Sonnet, Claude 3 Haiku, Claude 3 Opus
$ask_user_confirm_parameters$ Anthropic Claude Instant, Anthropic Claude v2.0 Istruzioni per consentire al modello di chiedere all’utente di confermare i parametri che l’agente non ha ancora ricevuto o di cui non è sicuro.
$ask_user_function$ Anthropic Claude Instant, Anthropic Claude v2.0 Una funzione per porre una domanda all’utente.
$ask_user_function_format$ Anthropic Claude Instant, Anthropic Claude v2.0 Una funzione per porre una domanda all’utente.
$ask_user_input_examples$ Anthropic Claude Instant, Anthropic Claude v2.0 Alcuni esempi few-shot per indicare al modello come prevedere quando porre una domanda all’utente.