Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Invocare un agente in linea
Nota
Le funzioni di configurazione e invocazione di una funzionalità di agente in linea sono in una versione in anteprima per Amazon Bedrock ed sono soggette a modifiche.
Prima di invocare il tuo agente in linea, assicurati di aver completato i prerequisiti.
Per richiamare un agente in linea, invia una richiesta InvokeInlineAgentAPI con un endpoint di runtime Agents for Amazon Bedrock e includi almeno i seguenti campi.
| Campo | Caso d’uso |
|---|---|
| instruction | Fornisci istruzioni che indicano all’agente in linea cosa deve fare e come deve interagire con gli utenti. |
| foundationModel | Specifica un modello di fondazione da utilizzare per l’orchestrazione da parte dell’agente in linea che hai creato. Ad esempio, anthropic claude, meta Llama3.1 e così via. |
| sessionId | Identificatore univoco della sessione. Utilizza lo stesso valore per tutte le richieste per continuare la stessa conversazione. |
I seguenti campi sono facoltativi:
| Campo | Caso d’uso |
|---|---|
| actionGroups | Elenco di gruppi di azione con ciascun gruppo di azioni che definisce le azioni che l’agente in linea può eseguire. |
| knowledgeBases | Associazioni di knowledge base all’agente in linea per potenziare la risposta generata dal modello. |
| guardrailConfiguration | Configura i guardrail per bloccare argomenti, prevenire allucinazioni e implementare misure di sicurezza per la tua applicazione. |
| agentCollaboration | Definisce il modo in cui l’agente collaboratore gestisce le informazioni tra più agenti collaboratori per coordinare una risposta finale. L’agente collaboratore può anche essere il supervisore. |
| collaboratorConfigurations | Configurazioni per l’agente collaboratore. |
| collaboratori | Elenco degli agenti collaboratori. |
| promptOverrideConfiguration | Configurazioni per prompt avanzati utilizzati per sovrascrivere i prompt predefiniti. |
| enableTrace | Specifica se attivare o meno la traccia per monitorare il processo di ragionamento dell’agente in linea. |
| Secondi di sessione di inattività TTLIn | Specifica la durata dopo la quale l’agente deve terminare la sessione ed eliminare tutte le informazioni archiviate. |
| customerEncryptionKeyArn | Specifica l’ARN di una chiave KMS per crittografare le risorse dell’agente. |
| endSession | Specifica se terminare o meno la sessione con l’agente in linea. |
| inlineSessionState | Parametri che specificano i vari attributi di una sessione. |
| inputText | Specifica il testo del prompt da inviare all’agente. |
| reasoning_config | Per abilitare il ragionamento del modello, così che spieghi come ha raggiunto le sue conclusioni. Utilizzalo all’interno di un campo additionalModelRequestFields. È necessario specificare il numero di budget_tokens utilizzati per il ragionamento del modello, ovvero un sottoinsieme dei token di output. Per ulteriori informazioni, consulta Migliorare le risposte del modello con il ragionamento basato su modello. |
Il seguente esempio di API InvokeInlineAgent fornisce configurazioni complete degli agenti in linea, tra cui il modello di fondazione, le istruzioni, i gruppi di azioni con interprete di codice, i guardrail e le knowledge base.
response = bedrock_agent_runtime.invoke_inline_agent( // Initialization parameters: cannot be changed for a conversation sessionId='uniqueSessionId', customerEncryptionKeyArn: String, // Input inputText="Hello, can you help me with a task?", endSession=False, enableTrace=True, // Agent configurations foundationModel='anthropic.claude-3-7-sonnet-20250219-v1:0', instruction="You are a helpful assistant...", actionGroups=[ { 'name': 'CodeInterpreterAction', 'parentActionGroupSignature': 'AMAZON.CodeInterpreter' }, { 'actionGroupName': 'FetchDetails', 'parentActionGroupSignature': '', "actionGroupExecutor": { ... }, "apiSchema": { ... }, "description": "string", "functionSchema": { ... } } ], knowledgeBases=[ { knowledgeBaseId: "string", description: 'Use this KB to get all the info', retrievalConfiguration: { vectorSearchConfiguration: { filter: { ... }, numberOfResults: number, overrideSearchType: "string" } } } ], guardrailConfiguration={ guardrailIdentifier: 'BlockEverything', gurardrailVersion: '1.0' }, promptOverrideConfiguration: {...} // session properties: persisted throughout conversation inlineSessionState = { sessionAttributes = { 'key': 'value' }, promptSessionAttributes = {k:v}, returnControlInvocationResults = {...}, invocationId = 'abc', files = {...}, } }
È possibile includere i parametri di ragionamento del modello nella richiesta. Di seguito è illustrato un esempio di un singolo prompt che attiva il ragionamento del modello in additionalModelRequestFields.
{ "basePromptTemplate": " ... ", "inferenceConfiguration": { "stopSequences": [ "</answer>" ] }, "parserMode": "DEFAULT", "promptCreationMode": "DEFAULT", "promptState": "DISABLED", "promptType": "ORCHESTRATION", "additionalModelRequestFields": "reasoning_config": { "type": "enabled", "budget_tokens": 1024 } }