为代理人工智能构建无服务器架构 AWS - AWS 规范性指导

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

为代理人工智能构建无服务器架构 AWS

Aaron Sempf,亚马逊 Web Services

2026 年 1 月文件历史记录

人工智能和无服务器计算的融合正在重塑现代企业架构的格局。作为回应,各组织正在努力大规模提供智能功能。他们面临着越来越大的压力,需要减少运营开销、加快创新,并部署能够实时适应用户行为和系统事件的应用程序。

开启的无服务器 AI AWS 代表了向智能、自适应的云原生系统的根本转变。借助正确的策略和工具,组织可以实现更快的创新周期、更低的成本和更大的可扩展性。这种方法使他们处于下一代企业计算的最前沿。 AWS 通过将完全托管的 AI 服务和事件驱动的无服务器基础架构相结合,实现了这种转变。

本指南概述了在上面构建 AI 原生无服务器架构的战略和技术基础。 AWS这些架构具有可扩展性和成本效益,并且能够提供实时情报,而无需复杂管理基础架构。

目标受众

本指南适用于寻求在现代云原生应用程序中利用人工智能驱动的软件代理功能的架构师、开发人员和技术领导者。

目标

本指南可以帮助您执行以下操作:

  • 了解可用于代理人工智能解决方案开发 AWS 的原生服务

  • 利用云规模的可靠性实现代理人工智能

  • 让 AI 执行与业务结果和成本模型保持一致

  • 为安全、受管控的人工智能采用建立框架

关于此内容系列

本指南是关于代理人工智能的系列文章的一部分。 AWS要了解更多信息并查看本系列中的其他指南,请参阅 AWS 规范性指导网站上的 Agentic AI

无服务器 AI 的商业案例

无服务器计算为现代 AI 工作负载提供了理想的基础。AI 应用程序通常需要间歇性的计算密集型推理,尤其是在欺诈检测、推荐引擎、文档摘要和客户服务自动化等用例中。在管理不可预测或尖峰的工作负载时,传统的基础设施模型可能昂贵且操作复杂。

相比之下,无服务器架构具有显著的优势。它们可以自动扩展,按需执行,减少运营开销,并且仅对使用的资源收费。这些功能使无服务器架构非常适合将 AI 嵌入到现代云原生应用程序中。 AWS 提供全面的服务组合,结合了无服务器和 AI 功能。这些服务包括 Amazon SageMaker Serverless Inference 和 Amazon Bedrock,后者通过完全托管、基于 API 的界面提供对基础模型的访问。Amazon Bedrock AgentCore 将 Amazon Bedrock 从模型访问扩展到用于构建、部署和管理自主代理的完整运行时。

此外, AWS Lambda 还 AWS Step Functions 支持开发敏捷、成本一致且可用于生产的 AI 系统。当与 Amazon Bedrock、 SageMaker Serverless Inference 和 AgentCore等服务搭配使用时,它们提供集成的推理、内存和连接器功能,允许开发人员创建能够跨 AWS 服务 外部系统进行规划、行动和协作的代理。这些工具为 AI 工作负载提供了强大的支持,所有这些都位于无服务器、事件驱动的架构中。

AI 工作负载,尤其是推理,通常是不可预测和突发的。在传统架构中,这会导致基础设施过度配置、成本增加和扩展复杂性。无服务器模型通过提供以下功能来解决这些问题:

  • 弹性可扩展性 — 资源可根据需求自动扩展。

  • 成本优化-空闲计算不收费。只需为执行时间付费。

  • 减少运营开销 — 减少操作,减少需要管理的操作,减少对其他技术、流程或资源的依赖。

  • 加快上市时间 — 开发人员可以专注于业务逻辑和模型性能,而不必管理服务器。

  • 高可用性和内置弹性 — 默认情况下, AWS 无服务器产品提供这些功能。

这些功能使无服务器成为在各种用例中部署人工智能模型的理想之选,从欺诈检测和个性化推荐到文档分析和对话式人工智能。

AWS 服务 为无服务器 AI 提供支持

AWS 提供一套强大的托管服务,可帮助团队在不管理基础架构的情况下将智能嵌入应用程序、协调工作流程和对事件做出反应: