翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
インラインエージェントを呼び出す
注記
インラインエージェント機能の設定と呼び出しは、Amazon Bedrock のプレビューリリースであり、変更される可能性があります。
インラインエージェントを呼び出す前に、前提条件を満たしていることを確認してください。
インラインエージェントを呼び出すには、Amazon Bedrock エージェントのランタイムエンドポイントを使用して InvokeInlineAgent API リクエストを送信し、少なくとも次のフィールドを含めます。
| フィールド | ユースケース |
|---|---|
| instruction | 何を実行し、どのようにユーザーとインタラクションを行うべきかをインラインエージェントに指示します。 |
| foundationModel | 作成するインラインエージェントによるオーケストレーションに使用する基盤モデルを指定します。例えば、Anthropic claude、meta Llama3.1 などです。 |
| sessionId | セッションの一意の識別子。複数リクエスト間で同じ値を使用すると、同じ会話を続行できます。 |
次のフィールドはオプションです。
| フィールド | ユースケース |
|---|---|
| actionGroups | インラインエージェントが実行できるアクションを定義する各アクショングループを含む、アクショングループのリスト。 |
| knowledgeBases | モデルが生成するレスポンスを強化するためのインラインエージェントとのナレッジベースの関連付け。 |
| guardrailConfiguration | トピックをブロックし、ハルシネーションを防ぎ、アプリケーションの保護を実装するためのガードレール設定。 |
| agentCollaboration | コラボレーターエージェントが複数のコラボレーターエージェント間で情報を処理し、最終的なレスポンスを調整する方法を定義します。コラボレーターエージェントをスーパーバイザーにすることもできます。 |
| collaboratorConfigurations | コラボレーターエージェントの設定。 |
| collaborators | コラボレーターエージェントのリスト。 |
| promptOverrideConfiguration | デフォルトのプロンプトを上書きするために使用される詳細プロンプトの設定。 |
| enableTrace | インラインエージェントの推論プロセスを追跡するために、トレースをオンにするかどうかを指定します。 |
| idleSessionTTLInSeconds | インラインエージェントがセッションを終了し、保存された情報を削除するまでの時間。 |
| customerEncryptionKeyArn | エージェントリソースを暗号化するための KMS キーの ARN を指定します。 |
| endSession | インラインエージェントとのセッションを終了するかどうかを指定します。 |
| inlineSessionState | セッションのさまざまな属性を指定するパラメータ。 |
| inputText | エージェントに送信するプロンプトのテキストを指定します。 |
| reasoning_config | どのように結論に達したかをモデルが説明できるように、モデルの推論を有効にするために使用します。additionalModelRequestFields フィールド内で使用します。出力トークンのサブセットであるモデル推論に使用する budget_tokens の数を指定する必要があります。詳細については、「モデル推論を使用してモデルのレスポンスを強化する」を参照してください。 |
次の InvokeInlineAgent API の例は、基盤モデル、手順、コードインタープリターを使用する、アクショングループ、ガードレール、ナレッジベースなど、完全なインラインエージェントの構成を説明しています。
response = bedrock_agent_runtime.invoke_inline_agent( // Initialization parameters: cannot be changed for a conversation sessionId='uniqueSessionId', customerEncryptionKeyArn: String, // Input inputText="Hello, can you help me with a task?", endSession=False, enableTrace=True, // Agent configurations foundationModel='anthropic.claude-3-7-sonnet-20250219-v1:0', instruction="You are a helpful assistant...", actionGroups=[ { 'name': 'CodeInterpreterAction', 'parentActionGroupSignature': 'AMAZON.CodeInterpreter' }, { 'actionGroupName': 'FetchDetails', 'parentActionGroupSignature': '', "actionGroupExecutor": { ... }, "apiSchema": { ... }, "description": "string", "functionSchema": { ... } } ], knowledgeBases=[ { knowledgeBaseId: "string", description: 'Use this KB to get all the info', retrievalConfiguration: { vectorSearchConfiguration: { filter: { ... }, numberOfResults: number, overrideSearchType: "string" } } } ], guardrailConfiguration={ guardrailIdentifier: 'BlockEverything', gurardrailVersion: '1.0' }, promptOverrideConfiguration: {...} // session properties: persisted throughout conversation inlineSessionState = { sessionAttributes = { 'key': 'value' }, promptSessionAttributes = {k:v}, returnControlInvocationResults = {...}, invocationId = 'abc', files = {...}, } }
リクエストにモデル推論パラメータを含めることができます。以下は、additionalModelRequestFields でモデルの推論を有効にする、単一のプロンプトの例です。
{ "basePromptTemplate": " ... ", "inferenceConfiguration": { "stopSequences": [ "</answer>" ] }, "parserMode": "DEFAULT", "promptCreationMode": "DEFAULT", "promptState": "DISABLED", "promptType": "ORCHESTRATION", "additionalModelRequestFields": "reasoning_config": { "type": "enabled", "budget_tokens": 1024 } }