本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
接地和检索增强生成
信任、准确性和可解释性对于在企业生产环境中部署 AI 系统至关重要。基础模型 (FMs) 提供了令人印象深刻的通用功能。但是,他们接受过大规模公共语料库方面的培训,通常对专有数据、业务规则或最近的变化缺乏认识。
为了解决这些意识差距, AWS 可通过 Amazon Bedrock 知识库启用检索增强生成 (RAG)。RAG 是一种强大的架构模式,它以外部、特定领域的知识为基础的 FM 响应,既提供事实准确性,又提供情境相关性。
RAG 通过组合两个过程来增强大型语言模型 (LLM) 输出:
-
检索-使用语义搜索机制(通常由矢量嵌入提供支持)从精选知识来源(例如内部文档、产品手册和案例日志)中识别相关内容。
-
生成 — 将检索到的上下文作为提示的一部分提供给 LLM,使其能够根据该权威信息制定答案。
这种方法使 “封闭式” 基础模型能够像访问您精心策划的实时企业数据一样行事,无需再培训。
例如,一名员工问内部 AI 助理 “我们的差旅政策是什么?” 助手的答案是使用托管在亚马逊简单存储服务 (Amazon S3) Simple S3 中的人力资源 (HR) 文档创建的,无需对模型进行微调。
扎根于 Amazon Bedrock
Amazon Bedrock 通过其知识库功能支持基础,允许开发人员配置企业内容存储库并将其链接到基础模型,而无需管理基础架构。
在 Amazon Bedrock 中扎根的关键功能包括以下内容:
-
使用支持的 FM 提供商@@ 自动嵌入文档
-
对存储在 Amazon S3 中的 HTML PDFs、Word 文档或文本文件进行@@ 语义搜索
-
无需微调即可接地,因为内容已注入 LLM 的上下文窗口
-
与 Amazon B edrock A gen ts 合作执行复杂的推理或多步工具的使用
Amazon Bedrock 知识库中支持的基础来源包括以下内容:
-
Amazon S3(原生支持)、Confluence、SalesforceSharePoint、或 Web Crawler(预览版)
-
使用矢量存储(例如亚马逊 Aurora、Amazon OpenSearch Serverless、Amazon Neptune Analy MongoDB tics 和 Enterprise Cloud)进行预嵌入索引。Pinecone Redis
在 Amazon Bedrock 中接地的模型支持包括以下内容:
-
所有 LLMs 与 Amazon Bedrock 兼容的都支持接地。
-
Amazon Nova 模型采用混合检索技术,针对文本、图像和视频进行了优化。
-
Amazon Bedrock 代理可以进一步精心编排扎实的产出,以进行推理和决策。
与代理人工智能集成
RAG 特别擅长与 Amazon Bedrock 代理合作,使他们能够利用情境情报和政策意识采取行动。以下是代理工作流程的示例:
-
用户输入将发送到亚马逊 EventBridge,亚马逊将其发送给亚马逊 Bedrock 代理。
-
代理调用知识库来搜索内部文档。
-
检索到的上下文嵌入到 LLM 提示符中。
-
LLM 生成带有参考和可追溯性的接地输出。
-
(可选)代理将输出和支持证据存储在内存中,以备将来采取行动。
该工作流程允许代理根据扎实的背景进行推理并做出可解释的决策,从而弥合了通用情报和特定领域应用程序之间的差距。
为安全性和合规性添加护栏
接地可以提高准确性,但生产级人工智能要求对模型可以说什么和不能说什么或做什么进行明确的控制。Amazon Bedrock Guardrail s 功能限制了代理行为并强制执行企业政策。
护栏的功能包括以下几点:
-
内容过滤器-阻止违反安全或合规标准的输出,包括屏蔽个人身份信息。
-
拒绝话题 — 屏蔽特定类别的回复(例如,没有医疗建议)。
-
及时检查 — 在推断之前识别并删除敏感输入。
-
用户级访问控制 — 使用 AWS Identity and Access Management (IAM) 根据身份和角色定制响应。
-
会话上下文约束-通过将代理范围限定为特定任务来防止模型偏移。
有了护栏,组织可以安全地将推理和决策委托给代理人,同时保持对语气、行为和界限的控制。
除了 RAG 之外的自动推理
仅有扎根的内容是不够的。代理必须对这些内容进行推理。这就是基于 LLM 的自动推理变得至关重要的地方。自动推理的重点是使代理能够在没有人为直接干预的情况下进行逻辑推理,例如得出结论、做出决策或解决问题。
自动推理可实现以下功能:
-
综合-比较、对比或汇总检索到的多个文档。
-
多跳逻辑 — 跨文档或章节连接事实以得出结论。
-
决策-根据规则或偏好在相互冲突的数据之间进行选择。
-
循证回应 — 输出每项决定的引文和理由。
这些功能将扎实的响应转化为合理的答案,将 Amazon Bedrock 代理从检索工具转变为域名感知顾问。
借助提示链、反射评估循环和多代理编排等工具,代理人工智能系统可以模拟专家推理模式,例如诊断、分类、计划或风险分析。
Amazon Nova 车型和接地一代
借助 Amazon Nova Pro 和 Amazon Nova Premier,扎实的 RAG 工作流程扩展到多模式输入,使代理能够解释和推理以下来源:
-
带注释的文档和 PDF 文件
-
图表、图表和嵌入式图像
-
屏幕截图、表单和结构化数据可视化
-
视频记录和幻灯片
这种功能使 Amazon Nova 特别适合需要深入了解富媒体内容的行业,例如法律案例、保险评估、临床记录或监管文件。
RAG 中的安全与治理
基础企业模式引入了新的职责,例如通过RAG、知识库或微调。你正在将自己的数据和上下文注入基础模型。这引入了新的职责,而不仅仅是模型选择和快速制作。 AWS 建议使用以下控制措施,这些控制措施与护栏配合使用,以支持自信的企业部署:
-
源数据质量保证-只有文档、数据库或它们所依据的文档、数据库 APIs 才是可靠的。
-
数据分类和可追溯性 — 对内容来源进行分类和标记,以显示有根据的响应来自哪里。
-
访问控制 — 在提示中注入私人文档会增加安全和隐私风险。通过 IAM 限制对特定文档或嵌入内容的访问。
-
更新和偏差管理 — 扎实的知识必须随着您的业务而发展。必须有版本控制、新鲜度策略和自动重新编制索引,以防止模型输出中的信息出现漂移或过时。
-
嵌入式智能的治理 — 您现在正在使用 AI 部署组织知识。这种能力伴随着验证、监控和管理其表达方式的责任,尤其是在医疗保健和金融等监管领域。
-
即时可观察性 — 接地系统必须尊重知识产权、监管要求和公司免责声明。捕获完整的提示、上下文和响应链以实现合规性。
-
审核日志-通过结构化 CloudWatch 日志跟踪检索 AWS CloudTrail 和推理。
-
用户反馈和更正循环 — 企业负责使用户能够举报不良的依据、错误的答案或不相关的来源,并传递这些反馈以提高未来的相关性。
-
记忆控制-选择是否在会话中保留推断出的见解。
-
代币预算优化 — 当接地添加大块文本时,会增加令牌的使用量(和成本)。您通常必须通过分块、汇总或元数据筛选来平衡 RAG 精度和即时经济性。
接地和 RAG 摘要
RAG 是安全且可扩展的企业 AI 的基础策略。通过将基础模型建立在权威的内部知识基础上,RAG 将大型语言模型从通用生成器转变为可感知领域、与策略一致且可解释的 AI 助手。这种方法可以减少幻觉,强制遵守内部政策,并实现基于事实的情境响应,使生成式人工智能适用于面向客户和员工的应用程序。
当与自动推理和护栏相结合时,扎根的模型不仅可以成为工具,还可以成为负责任和值得信赖的代理。借助 Amazon Bedrock 无服务器 RAG 支持和 Amazon Nova 多模式功能,组织无需管理基础设施即可在整个业务中扩展安全、高性能的人工智能。