为 AI 工作负载的执行策略建模 - AWS 规范性指导

本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。

为 AI 工作负载的执行策略建模

任何 AI 架构的核心都是模型执行层,即执行推理、为预测提供支持或生成内容的组件。 AWS 为执行 AI 工作负载提供了两条强大的无服务器就绪路径:

通过了解何时以及如何使用它们 AWS 服务,企业可以针对业务需求和运营效率进行优化。

Amazon Bedrock:基础模型即服务

Amazon Bedrock 是一项完全托管的服务,可提供 FMs 来自领先的人工智能提供商Anthropic(例如(Claude)、Meta(Llama)、MistralCohere、和 Amazon Titan Amazon Nova 的无服务器访问。您可以使用简单的 API 调用与这些模型进行交互,而无需配置基础架构 GPUs、管理或微调模型。

Amazon Bedrock 的主要功能包括以下内容:

  • 文本生成-摘要、重写、内容创建和问答。

  • 代码生成-自然语言编码。

  • 分类和提取-标记、解析和语义标记。

  • RAG 工作流程 — 与知识库集成,做出有根据的响应。

  • 代理-支持自主编排和工具使用。

  • 多模态智能 — 通过 Amazon Nova,跨文本、图像和视频理解和生成。

  • 微调和蒸馏支持 — 通过 Amazon Nova Premier,训练特定任务的模型或创建紧凑的学生模型。

  • 分层性能和成本 — 从 Amazon Nova Micro、Nova Lite、Nova Pro 和 Nova Premier 型号中进行选择,以平衡延迟、准确性和价格。

Amazon Bedrock 的运营优势包括以下几点:

  • 模型管理-无需模型托管或版本控制。

  • 安全的数据处理-隔离的租户环境,无需对用户数据进行培训。

  • 基于令牌的计费 — 提供可预测的成本建模。

  • 多模态 API 统一 — 通过相同的 Amazon Bedrock input/output 界面处理图像、视频和文本。

  • 低延迟选项 — Amazon Nova Micro 和 Nova Lite 可用,非常适合边缘和面向用户的生成人工智能应用程序。

  • 企业接地兼容性 — 所有 Amazon Nova 型号都与 Amazon Bedrock 知识库和检索增强生成 (RAG) 架构兼容。

Amazon Bedrock 通过以下方式与其他 AWS 服务 和功能集成:

  • 从 Lambda、Step Functions 或 API Gateway 触发

  • 与 Amazon Bedrock Agents 集成,实现以目标为导向的编排

  • Amazon Bedrock 知识库和 RAG 管道无缝协作

Amazon Bedrock 的理想用例

Amazon Bedrock 非常适合各种场景,例如:

  • 生成式 AI 任务-创建营销内容和文档,为聊天机器人提供支持。

  • 对话助手-建立支持机器人和内部副驾驶。

  • 知识检索-用于摘要和语义搜索任务。

  • 动态规划-基于助力代理的决策系统。

  • 多模式生成 — 使用 Amazon Nova Canvas 生成图像,并使用 Amazon Nova Reel 根据提示和结构化背景制作视频。

  • 企业助手 — 使用 Amazon Nova Pro 启用基于专有数据的目标驱动型决策工具。

  • 实时用户体验反馈 ——使用 Amazon Nova Micro 分析和响应延迟不到 100 毫秒的客户操作。

Amazon SageMaker 无服务器推理:自定义模型托管

Amazon SageMaker Serverless Inference 专为训练过自己的模型(例如、XGBoostPyTorchScikit-learn、和)的开发人员和TensorFlow数据科学家而设计。通过使用 SageMaker 无服务器推理,他们可以在可扩展的无服务器环境中部署模型。

与 Amazon Bedrock 不同, SageMaker 无服务器推理使您可以控制模型架构、训练数据和逻辑。

SageMaker 无服务器推理的关键功能包括以下内容:

  • 托管传统的机器学习模型,例如分类、回归、自然语言处理 (NLP) 和预测

  • 支持多模型端点

  • 支持自动扩展,以便按需配置计算并在空闲时关闭

  • 对自定义容器镜像或预构建的 ML 框架运行推理

SageMaker 无服务器推理的操作优势包括以下几点:

  • Pay-per-inference 闲置成本为零的模型

  • 端点完全托管,无需设置服务器

  • 与训练管道和笔记本集成

SageMaker 无服务器推理通过以下方式与其他 AWS 服务 和功能集成:

  • 通过使用 AWS Lambda Step Functions 或 SDK 和 API 调用调用

  • 与 SageMaker 流水线配合使用进行 end-to-end机器学习操作 (MLOps)

  • 与 Amazon 集成的日志和指标 CloudWatch

SageMaker 无服务器推理的理想用例

SageMaker 无服务器推理是各种机器学习应用程序的不错选择:

  • 预测分析-用于销售预测和流失预测模型。

  • 文本分类-支持垃圾邮件检测和情绪分析等任务。

  • 图像分类-支持文档光学字符识别 (OCR) 和医学成像应用程序。

  • 自定义自然语言处理 (NLP)-处理实体识别和文档标记任务。

在 Amazon Bedrock 和 SageMaker 无服务器推理之间进行选择

Amazon Bedrock 和 SageMaker 无服务器推理都为可扩展、生产就绪的人工智能执行提供了无服务器路径。它们共同构成了现代、事件驱动、无服务器 AI 架构的核心执行层。 AWS下表按关键维度对这些服务进行了比较。

维度

Amazon Bedrock

SageMaker 无服务器推理

模型类型

基础模型 (LLMs)

自定义训练的 ML 模型

设置工作

最低限度(没有培训或托管)

需要模型训练和打包

使用案例

生成式、对话式和语义式

预测数据、数值数据和结构化数据

可扩展性

完全无服务器且可自动扩展

完全无服务器且可自动扩展

成本模型

按代币支付

按推理付费

集成

API Gateway、Lambda、亚马逊 Bedrock Agents 和 RAG

Lambda、Step Functions 和管道 CI/CD

需要调整

无(零射门或少射门)

完全控制(超参数和再训练)

选择正确的服务取决于您的 AI 工作负载的性质:

  • 当您需要语义灵活性、目标驱动的工作流程以及基础模型的快速迭代时,请使用 Amazon Bedrock。

  • 当您拥有专有模型、结构化输入或需要完全控制训练和部署时,请使用 SageMaker 无服务器推理。

  • SageMaker JumpStart 用于从数百种内置算法中进行选择,这些算法以及来自模型中心的预训练模型,包括 TensorFlow Hu PyTorch b Hugging Face、Hub 和MxNet GluonCV。