本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
模式 2:使用 Amazon Bedrock 进行代理人工智能编排
当企业希望提高用户参与度、自动化内容密集型工作流程并构建更智能的助手时,他们面临着一系列常见的挑战:
-
内容生成是劳动密集型、不一致且速度缓慢的(例如,撰写营销文案、帮助文章、状态摘要)。
-
用户界面需要越来越个性化的对话体验,这是传统逻辑树所 FAQs无法支持的。
-
开发人员难以集成多个系统、检索相关信息以及实时呈现连贯的、情境丰富的响应。
传统的自动化工具可能很僵硬。他们遵循固定的规则,无法根据上下文、语言细微差别或用户语气调整输出。
代理人工智能编排模式:灵活、智能、目标驱动
代理人工智能编排模式使用 Amazon Bedrock 将基于大型语言模型 (LLM) 的编排引入到无服务器架构中,允许基础模型 ():FMs
-
解释自然语言提示。
-
调用工具或 APIs 根据需要调用。
-
企业知识的基础产出。
-
动态生成结构化、量身定制的内容。
借助 Amazon Bedrock 代理,编排变得自主且以目标为导向。法学硕士决定调用哪些工具、检索哪些信息以及如何制定最终回应。代理目标驱动的方法是 LLM 支持的数字助理、内容管道和智能接口的基础。
参考架构按如下方式实现每个层:
-
事件触发器-使用 Amazon API Gateway 进行用户输入、聊天机器人消息或业务工作流程触发器
-
预处理-AWS Lambda用于格式化输入并将意图路由到相应的 Amazon Bedrock 代理
-
编排-部署 A mazon Bedrock 代理来解析提示、调用工具(例如 Lambda 和数据 APIs)以及检索知识库上下文
-
推理-使用代理调用 FM(例如 C Anthropic laude 或 Amazon Nova Pro)来生成响应
-
后处理-使用 Lambda 在交付前记录、验证或丰富输出
-
输出-向网页、应用程序提供响应,或将其存储在亚马逊简单存储服务 (Amazon S3) 或亚马逊 OpenSearch 服务中。
用例:自动生成营销内容
营销团队花费数小时撰写产品摘要、搜索引擎优化 (SEO) 片段以及跨多个地区和语言发布新产品的电子邮件副本。手动撰写文案成本高昂、速度慢且不一致。
对于此用例,生成式 AI 编排解决方案包括以下步骤:
-
营销人员通过网络表单输入最少的产品详细信息,例如名称、功能和目标市场。
-
API Gateway 将输入路由到亚马逊 Bedrock 代理。
-
代理会执行以下操作:
-
查询知识库以了解品牌语气、现有产品描述和监管指南
-
调用 Lambda 函数从内部获取竞争定位数据 APIs
-
使用 Amazon Nova Pro 撰写本地化、品牌一致的商品描述
-
-
生成的副本通过用户界面返回并存档在 Amazon S3 中,以保证质量和分发。
整个工作流程可在几秒钟内精心编排,具有完全的可追溯性和适应性。
为什么与 Amazon Bedrock Agents 进行协调很重要
借助 Amazon Bedrock Agents,开发人员可以定义工具和目标,而不是复杂的工作流程。LLM 使用自然语言推动编排。
下表将传统编排方法与使用 Amazon Bedrock Agents 的代理 AI 编排进行了比较。
质询 |
传统的编排方法 |
Agentic AI 编排 |
|---|---|---|
非结构化输入 |
手动路由 |
LLMs 解释含义和意图。 |
工具协调 |
硬编码的集成逻辑 |
代理在运行时选择工具。 |
内容生成 |
人为工作或模板 |
按需和自适应生成。 |
个性化 |
静态规则或用户区段 |
基于语义和实时适应。 |
法学硕士编排的治理注意事项
强大的编排伴随着责任。采用这种模式的企业应:
-
版本和审阅提示、工具和代理配置。
-
使用 IAM 角色控制代理对函数和数据的访问权限。
-
启用日志记录和审核功能,以提高可审计性和信任度。
通过使用由 Amazon Bedrock 提供支持的生成式 AI 编排模式,企业可以超越聊天机器人和模板,进入情境化的自动智能领域。
从营销内容到支持回应,从内部沟通到产品文档,这种模式可以实现可扩展的创造力和决策。它提供了企业云环境所期望的可靠性、可观察性和安全性。
生成式 AI 编排模式的商业价值
生成式 AI 编排模式在以下领域提供了价值:
-
速度 — 将内容创建的周转时间从几小时缩短到几秒钟
-
一致性 — 保持不同语言和团队对语气、指导方针和政策的遵守
-
可扩展性-使小型团队能够支持全球运营
-
敏捷性-可轻松适应新的内容类型或用户流
-
成本效益-减少对手动流程的依赖并降低 time-to-market