

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 使用亚马逊 A SageMaker I 和 Azure 构建 MLOps 工作流程 DevOps
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops"></a>

*Deepika Kumar、Sara van de Moosdijk 和 Philips Kokoh Prasetyo，Amazon Web Services*

## Summary
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops-summary"></a>

机器学习操作 (MLOps) 是一组自动化和简化机器学习 (ML) 工作流程和部署的实践。 MLOps 重点是机器学习生命周期的自动化。它有助于确保不仅开发模型，还能系统地、反复地部署、监控和再训练。它为机器学习带来了 DevOps 原则。 MLOps 可以更快地部署机器学习模型，随着时间的推移提高准确性，并更有力地保证机器学习模型提供真正的商业价值。

在开始 MLOps 旅程之前，Organizations 通常会拥有现有的 DevOps 工具和数据存储解决方案。这种模式展示了如何利用微软 Azure 和 AWS. 它可以帮助你将 Azure DevOps 与 Amazon SageMaker AI 集成，从而创建 MLOps 工作流程。

该解决方案简化了 Azure 和之间的工作 AWS。你可以使用 Azure 进行开发和 AWS 机器学习。它可促进从头到尾制作机器学习模型的有效过程，包括在 AWS上进行数据处理、训练和部署。为了提高效率，你可以通过 Azure DevOps 管道管理这些流程。该解决方案适用于生成式 AI 中的基础模型操作 (FMOps) 和大型语言模型操作 (LLMOps)，其中包括微调、向量数据库和提示管理。

## 先决条件和限制
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops-prereqs"></a>

**先决条件**
+ **Azure 订阅** — 访问 Azure 服务，例如 Azure DevOps，用于设置持续集成和持续部署 (CI/CD) 管道。
+ **活跃 AWS 账户** — 使用此模式中 AWS 服务 使用的账户的权限。
+ **数据** –访问用于训练机器学习模型的历史数据。
+ **熟悉 ML 概念** ‒ 了解 Python、Jupyter Notebook 和机器学习模型开发。
+ **安全配置** ‒ 在 Azure 和 AWS 上正确配置角色、策略和权限，以确保数据传输和访问的安全性。
+ **（可选）向量数据库** – 如果您对向量数据库使用检索增强生成（RAG）方法和第三方服务，则需要访问外部向量数据库。

**限制**
+ 本指南未讨论安全的跨云数据传输。有关跨云数据传输的更多信息，请参阅[适用于混合云和多云的AWS 解决方案](https://aws.amazon.com/hybrid-multicloud/)。
+ 多云解决方案可能会增加实时数据处理和模型推理的延迟。
+ 本指南提供了多账户 MLOps 架构的一个示例。需要根据您的机器学习和 AWS 策略进行调整。
+ 除了 Amazon A SageMaker I 之外，本指南并未描述其他 AI/ML 服务的使用情况。
+ 有些 AWS 服务 并非全部可用 AWS 区域。有关区域可用性，请参阅[按区域划分的AWS 服务](https://aws.amazon.com/about-aws/global-infrastructure/regional-product-services/)。有关特定端点，请参阅[服务端点和配额](https://docs.aws.amazon.com/general/latest/gr/aws-service-information.html)页面，然后选择相应服务的链接。

## 架构
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops-architecture"></a>

**目标架构**

目标架构将 Azure DevOps 与 Amazon A SageMaker I 集成在一起，创建了跨云端机器学习工作流程。它使用 Azure CI/CD 处理流程，使用 SageMaker AI 进行机器学习模型训练和部署。它概述了通过模型构建和部署（从 Amazon S3、Snowflake 和 Azure 数据湖等来源）获取数据的过程。关键组件包括用于模型构建和部署、数据准备、基础设施管理的 CI/CD 管道，以及用于训练和微调、评估和部署机器学习模型的 SageMaker Amazon AI。该架构旨在跨云平台提供高效、自动化且可扩展的 ML 工作流。

![\[使用 Azure 开发运营和 SageMaker. MLOps\]](http://docs.aws.amazon.com/zh_cn/prescriptive-guidance/latest/patterns/images/pattern-img/95fdf414-e561-4a93-9628-b41db39a577e/images/84ddcc36-54ef-473e-875f-154fae18cb13.png)


该架构包含以下组件：

1. 数据科学家在开发账户中执行 ML 实验，通过使用各种数据来源探索 ML 使用案例的不同方法。数据科学家进行单元测试和试验，为了跟踪他们的实验，他们可以将 Amazon AI 与 [Amazon A SageMaker I 配合](https://docs.aws.amazon.com/sagemaker/latest/dg/mlflow.html)使用 MLflow。在生成式 AI 模型开发中，数据科学家对 Amazon A SageMaker I 模型中心的基础 JumpStart 模型进行微调。模型评估后，数据科学家将代码推送并合并到托管在 Azure 上的模型生成存储库 DevOps。此存储库包含用于多步骤模型构建管道的代码。

1. 在 Azure DevOps 上，提供持续集成 (CI) 的模型生成管道可以在代码合并到主分支时自动或手动激活。在 Automation 账户中，这会激活 SageMaker AI 管道，用于数据预处理、模型训练和微调、模型评估以及基于准确性的条件模型注册。

1. 自动化账户是跨机器学习平台的中央账户，用于托管机器学习环境 (Amazon ECR)、模型 (Amazon S3)、模型元数据（SageMaker AI 模型注册表）、功能（SageMaker AI 功能存储）、自动管道（SageMaker AI 管道）和机器学习日志见解（CloudWatch）。对于生成式人工智能工作负载，您可能需要对下游应用程序中的提示进行额外评估。提示管理应用程序有助于简化和自动化该过程。此账户允许重复使用 ML 资产，并强制实施最佳实践，加快 ML 使用案例的交付。

1. 最新模型版本已添加到 SageMaker AI 模型注册表中以供审核。它跟踪模型版本和相应的构件（世系和元数据）。它还管理模型的状态（批准、拒绝或待定），并管理下游部署的版本。

1. 在模型注册表中训练过的模型通过工作室界面或 API 调用获得批准后，可以向 Amazon 发送事件 EventBridge。 EventBridge 在 Azure 上启动模型部署管道 DevOps。

1. 提供持续部署（CD）的模型部署管道从模型部署存储库中拉取源代码。该源代码中包含代码、模型部署配置和质量基准测试脚本。模型部署管道可以根据您的推理类型进行定制。

1. 完成质量控制检查后，模型部署管道会将模型部署到暂存账户。暂存账户是生产账户的副本，用于集成测试和评估。对于批量转换，模型部署管道可以自动更新批量推理过程，以使用最新批准的模型版本。对于实时、无服务器或异步推理，它会设置或更新相应的模型端点。

1. 在暂存账户中成功测试后，可以通过模型部署管道手动批准将模型以将模型部署到生产账户。该管道在**部署到生产**步骤中预调配了生产端点，包括模型监控和数据反馈机制。

1. 模型投入生产后，使用 SageMaker AI Model Monitor 和 A SageMaker I Clarify 等工具来识别偏差、检测漂移并持续监控模型的性能。

**自动化和扩展**

使用基础设施即代码（IaC）自动部署到多个账户和环境。通过实现 MLOps 工作流程设置过程的自动化，可以将从事不同项目的机器学习团队所使用的环境分开。 [AWS CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html)通过将基础设施视为代码，帮助您建模、配置和管理 AWS 资源。

## 工具
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops-tools"></a>

**AWS 服务**
+ [Amazon SageMaker AI](https://docs.aws.amazon.com/sagemaker/latest/dg/whatis.html) 是一项托管机器学习服务，可帮助您构建和训练机器学习模型，然后将其部署到可用于生产的托管环境中。
+ [AWS Glue](https://docs.aws.amazon.com/glue/latest/dg/what-is-glue.html) 是一项完全托管式提取、转换、加载（ETL）服务。它可以帮助您在数据存储和数据流之间对数据进行可靠地分类、清理、扩充和移动。
+ [Amazon Simple Storage Service（Amazon S3）](https://docs.aws.amazon.com/AmazonS3/latest/userguide/Welcome.html)是一项基于云的对象存储服务，可帮助您存储、保护和检索任意数量的数据。在这种模式中，Amazon S3 用于数据存储，并与 SageMaker AI 集成用于模型训练和模型对象。
+ [AWS Lambda](https://docs.aws.amazon.com/lambda/latest/dg/welcome.html) 是一项计算服务，可帮助您运行代码，无需预调配或管理服务器。它只在需要时运行您的代码，并自动进行扩展，因此您只需为使用的计算时间付费。在此模式中，Lambda 用于数据预处理和后处理任务。
+ [Amazon Elastic Container Registry（Amazon ECR）](https://docs.aws.amazon.com/AmazonECR/latest/userguide/what-is-ecr.html)是一项安全、可扩展且可靠的托管容器映像注册表服务。在这种模式下，它存储 SageMaker AI 用作训练和部署环境的 Docker 容器。
+ [Amazon EventBridge](https://docs.aws.amazon.com/eventbridge/latest/userguide/eb-what-is.html) 是一项无服务器事件总线服务，可帮助您将应用程序与来自各种来源的实时数据连接起来。在这种模式下， EventBridge 协调事件驱动或基于时间的工作流程，以启动自动模型再训练或部署。
+ [Amazon API Gateway](https://docs.aws.amazon.com/apigateway/latest/developerguide/welcome.html) 可帮助您创建、发布、维护、监控和保护任何规模的 RES WebSocket APIs T、HTTP。 在这种模式中，它用于为 SageMaker AI 端点创建面向外部的单一入口点。
+ 对于 RAG 应用程序，您可以使用 AWS 服务诸如 [Amazon S OpenSearch ervice 和 Amazon](https://docs.aws.amazon.com/opensearch-service/latest/developerguide/what-is.html) [RDS](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_PostgreSQL.html) for PostgreSQL 存储向量嵌入内容，这些嵌入为 LLM 提供您的内部数据。

**其他工具**
+ [Azure DevOps](https://learn.microsoft.com/en-us/azure/devops/user-guide/what-is-azure-devops) 可帮助你管理 CI/CD 管道并简化代码构建、测试和部署。
+ [Azure Data Lake Storage](https://learn.microsoft.com/en-us/azure/storage/blobs/data-lake-storage-introduction) 或 [Snowflake](https://docs.snowflake.com/en/) 可能是 ML 模型训练数据的第三方来源。
+ [Pinecone](https://docs.pinecone.io/home)、[Milvus](https://milvus.io/docs/overview.md) 或 [ChromaDB](https://docs.trychroma.com/) 是可用于存储向量嵌入的第三方向量数据库。

## 最佳实践
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops-best-practices"></a>

在实施此多云 MLOps 工作流程的任何组件之前，请完成以下活动：
+ 定义和了解机器学习工作流以及支持该工作流所需的工具。不同的使用案例需要不同的工作流和组件。例如，在个性化使用案例中，功能重用和低延迟推理可能需要特征存放区，但其他使用案例可能不需要。为了成功地自定义架构，需要了解数据科学团队的目标工作流、使用案例要求和首选协作方法。
+ 为架构的每个组件制定明确的责任分工。跨 Azure Data Lake Storage、Snowflake 和 Amazon S3 分布数据存储可能会增加复杂性和成本。如有可能，请选择一致的存储机制。同样，请避免使用 Azure 和 AWS DevOps 服务的组合，或者同时使用 Azure 和 AWS ML 服务。
+ 选择一个或多个现有模型和数据集对 MLOps 工作流程进行 end-to-end测试。测试构件应反映平台投入生产时数据科学团队开发的真实使用案例。

## 操作说明
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops-epics"></a>

### 设计您的 MLOps 架构
<a name="design-your-mlops-architecture"></a>


| Task | 说明 | 所需技能 | 
| --- | --- | --- | 
| 识别数据来源。 | 根据当前和未来的用例、可用数据源和数据类型（例如机密数据），记录需要与 MLOps 平台集成的数据源。数据可以存储在 Amazon S3、Azure Data Lake Storage、Snowflake 或其他来源中。对于生成式人工智能工作负载，数据还可能包括为生成的响应奠定基础的知识库。这些数据以向量嵌入的形式存储在向量数据库中。制定计划，将这些资源与您的平台集成，并确保安全地访问正确的资源。 | 数据工程师、数据科学家、云架构师 | 
| 选择适用的服务。 | 根据数据科学团队所需的工作流、适用的数据来源和现有云架构，通过添加或删除服务来自定义架构。例如，数据工程师和数据科学家可以在 SageMaker AI 或 Amazon EMR 中执行数据预处理和特征工程。 AWS Glue不太可能同时需要这三种服务。 | AWS 管理员、数据工程师、数据科学家、ML 工程师 | 
| 分析安全要求。 | 收集和记录安全要求。这包括确定：[\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/zh_cn/prescriptive-guidance/latest/patterns/build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops.html)有关保护生成式 AI 工作负载的更多信息，请参阅[保护生成式 AI：生成式 AI 安全范围矩阵简介](https://aws.amazon.com/blogs/security/securing-generative-ai-an-introduction-to-the-generative-ai-security-scoping-matrix/)（AWS 博客文章）。 | AWS 管理员、云架构师 | 

### 设置 AWS Organizations
<a name="set-up-aolong"></a>


| Task | 说明 | 所需技能 | 
| --- | --- | --- | 
| 设置 AWS Organizations。 | 在根 AWS Organizations 上设置 AWS 账户。这可以帮助您管理作为多账户 MLOps 策略的一部分创建的后续账户。有关详情，请参阅 [AWS Organizations 文档](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_tutorials_basic.html)。 | AWS 管理员 | 

### 设置开发环境和版本控制
<a name="set-up-the-development-environment-and-versioning"></a>


| Task | 说明 | 所需技能 | 
| --- | --- | --- | 
| 创建 AWS 开发账户。 | 创建数据工程师和数据科学家有权实验和创建机器学习模型 AWS 账户 的地方。有关说明，请参阅 AWS Organizations 文档[中的在组织中创建成员帐户](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_accounts_create.html)。 | AWS 管理员 | 
| 创建一个模型构建存储库。 | 在 Azure 中创建 Git 存储库，数据科学家可以在实验阶段完成后推送其模型构建和部署代码。有关说明，请参阅 Azure DevOps 文档中的[设置 Git 存储库](https://learn.microsoft.com/en-us/devops/develop/git/set-up-a-git-repository)。 | DevOps 工程师、机器学习工程师 | 
| 创建一个模型部署存储库。 | 在 Azure 中创建用于存储标准部署代码和模板的 Git 存储库。它应包括组织使用的每个部署选项的代码，这些在设计阶段确定。例如，它应包括实时端点、异步端点、无服务器推理或批量转换。有关说明，请参阅 Azure DevOps 文档中的[设置 Git 存储库](https://learn.microsoft.com/en-us/devops/develop/git/set-up-a-git-repository)。 | DevOps 工程师、机器学习工程师 | 
| 创建 Amazon ECR 存储库。 | 设置一个 Amazon ECR 存储库，用于将经批准的 ML 环境存储为 Docker 映像。允许数据科学家和 ML 工程师定义新环境。有关说明，请参阅 Amazon ECR 文档中的[创建私有存储库](https://docs.aws.amazon.com/AmazonECR/latest/userguide/repository-create.html)。 | 机器学习工程师 | 
| 设置 SageMaker AI 工作室。 | 根据先前定义的安全要求、首选的数据科学工具（例如）和首选的集成开发环境 (IDE MLflow)，在开发账户上设置 SageMaker AI Studio。使用生命周期配置自动安装关键功能，并为数据科学家创建统一的开发环境。有关更多信息，请参阅 [A SageMaker I 文档中的 Amazon AI Studio](https://docs.aws.amazon.com/sagemaker/latest/dg/studio-updated.html) 和[MLflow 跟踪服务器](https://docs.aws.amazon.com/sagemaker/latest/dg/mlflow.html)。 SageMaker  | 数据科学家、ML 工程师、提示工程师 | 

### 整合 CI/CD 管道
<a name="integrate-ci-cd-pipelines"></a>


| Task | 说明 | 所需技能 | 
| --- | --- | --- | 
| 创建自动化账户。 | 创建自动管道和作业的运行 AWS 账户 位置。您可以授予数据科学团队对此账户的读取权限。有关说明，请参阅 AWS Organizations 文档[中的在组织中创建成员帐户](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_accounts_create.html)。 | AWS 管理员 | 
| 设置模型注册表。 | 在自动化账户中设置 SageMaker AI 模型注册表。该注册表存储 ML 模型的元数据，并帮助某些数据科学家或团队负责人批准或拒绝模型。有关更多信息，请参阅 SageMaker AI 文档中的[使用模型注册表注册和部署](https://docs.aws.amazon.com/sagemaker/latest/dg/model-registry.html)模型。 | 机器学习工程师 | 
| 创建一个模型构建管道。 | 在 Azure 中创建一个 CI/CD 管道，当代码推送到模型生成存储库时，该管道会手动启动或自动启动。管道应查看源代码，并在 Automation 账户中创建或更新 SageMaker AI 管道。该管道应向模型注册表中添加一个新模型。有关创建管道的更多信息，请参阅 [Azure Pipelines 文档](https://learn.microsoft.com/en-us/azure/devops/pipelines/get-started/what-is-azure-pipelines)。 | DevOps 工程师、机器学习工程师 | 

### 构建部署堆栈。
<a name="build-the-deployment-stack"></a>


| Task | 说明 | 所需技能 | 
| --- | --- | --- | 
| 创建 AWS 暂存和部署帐户。 |  AWS 账户 为机器学习模型的暂存和部署而创建。这些账户应完全相同，以便在投入生产之前对试运行中的模型进行准确的测试。您可以授予数据科学团队对暂存账户的读取权限。有关说明，请参阅 AWS Organizations 文档[中的在组织中创建成员帐户](https://docs.aws.amazon.com/organizations/latest/userguide/orgs_manage_accounts_create.html)。 | AWS 管理员 | 
| 设置 S3 存储桶以进行模型监控。 | 如果您要为模型部署管道创建的已部署模型启用模型监控，请完成此步骤。创建 Amazon S3 存储桶用于存储输入和输出数据。有关创建 S3 存储桶的更多信息，请参阅 Amazon S3 文档中的[创建存储桶](https://docs.aws.amazon.com/AmazonS3/latest/userguide/create-bucket-overview.html)。设置跨账户权限，以便于自动模型监控作业在自动化账户中运行。有关更多信息，请参阅 SageMaker AI 文档中的[监控数据和模型质量](https://docs.aws.amazon.com/sagemaker/latest/dg/model-monitor.html)。 | 机器学习工程师 | 
| 创建一个模型部署管道。 | 在 Azure 中创建一个 CI/CD 管道，当模型在模型注册表中获得批准时启动。该管道应检查源代码和模型构件，构建用于在暂存账户和生产账户中部署模型的基础设施模板，在暂存账户中部署模型，运行自动测试，等待手动批准，然后将批准的模型部署到生产账户。有关创建管道的更多信息，请参阅 [Azure Pipelines 文档](https://learn.microsoft.com/en-us/azure/devops/pipelines/get-started/what-is-azure-pipelines)。 | DevOps 工程师、机器学习工程师 | 

### （可选）自动化 ML 环境基础设施
<a name="optional-automate-ml-environment-infrastructure"></a>


| Task | 说明 | 所需技能 | 
| --- | --- | --- | 
| 构建 AWS CDK 或 CloudFormation 模板。 | 为需要自动部署的所有环境定义 AWS Cloud Development Kit (AWS CDK) 或 AWS CloudFormation 模板。这可能包括开发环境、自动化环境以及暂存和部署环境。有关更多信息，请参阅 [AWS CDK](https://docs.aws.amazon.com/cdk/v2/guide/home.html) 和 [CloudFormation](https://docs.aws.amazon.com/AWSCloudFormation/latest/UserGuide/Welcome.html) 文档。 | AWS DevOps | 
| 创建基础设施管道。 | 在 Azure 中创建用于基础架构部署的 CI/CD 管道。管理员可以启动此管道来创建机器学习团队所需的新环境 AWS 账户 和设置环境。 | DevOps 工程师 | 

## 问题排查
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops-troubleshooting"></a>


| 问题 | 解决方案 | 
| --- | --- | 
| **监控和偏差检测不足** ‒ 监控不足可能导致错过模型性能问题或数据漂移的检测。 | 使用 Amazon CloudWatch、A SageMaker I 模型监控器和 SageMaker AI Clarify 等工具加强监控框架。配置提醒，以便对发现的问题立即采取行动。 | 
| **CI 管道触发错误** —**** 由于配置错误， DevOps 可能不会在代码合并时触发 Azure 中的 CI 管道。 | 检查 Azure DevOps 项目设置，确保 webhook 已正确设置并指向正确的 SageMaker AI 端点。 | 
| **治理** ‒** **中央自动化账户可能无法在 ML 平台上强制执行最佳实践，从而导致工作流不一致。 | 审计 Automation 账户设置，确保所有 ML 环境和模型都符合预定义的最佳实践和策略。 | 
| **模型注册表批准延迟 ‒** 这种情况发生在模型的检查和批准延迟时，要么是因为人们需要时间进行审查，要么是因为技术问题。 | 实施通知系统以提醒利益相关者注意待批准的模型，并简化审核流程。 | 
| **模型部署事件失败** ‒** **为启动模型部署管道而调度的事件可能会失败，因而导致部署延迟。 | 确认 Amazon EventBridge 拥有成功调用 Azure DevOps 管道的正确权限和事件模式。 | 
| **生产部署瓶颈** ‒** **手动批准流程可能会产生瓶颈，因而延迟模型的生产部署。 | 优化模型部署管道内的审批工作流，促进及时审核和畅通沟通渠道。 | 

## 相关资源
<a name="build-an-mlops-workflow-by-using-amazon-sagemaker-and-azure-devops-resources"></a>

**AWS 文档**
+ [亚马逊 SageMaker AI 文档](https://docs.aws.amazon.com/sagemaker/)
+ M@@ [achine Learning Lens](https://docs.aws.amazon.com/wellarchitected/latest/machine-learning-lens/machine-learning-lens.html)（架构AWS 良好的框架）
+ [为成功做好规划 MLOps](https://docs.aws.amazon.com/prescriptive-guidance/latest/ml-operations-planning/welcome.html)（AWS 规范性指导）

**其他 AWS 资源**
+ MLOps 采@@ [用 Amazon A SageMaker I 的企业的基础路线图](https://aws.amazon.com/blogs/machine-learning/mlops-foundation-roadmap-for-enterprises-with-amazon-sagemaker/)（AWS 博客文章）
+ [AWS 2022 年澳新银行峰会- End-to-end MLOps 面向建筑师](https://www.youtube.com/watch?v=UnAN35gu3Rw)（YouTube 视频）
+ [FMOps/LLMOps：将生成式 AI 和差异化付诸实践 MLOps](https://aws.amazon.com/blogs/machine-learning/fmops-llmops-operationalize-generative-ai-and-differences-with-mlops/)（AWS 博客文章）
+ 使用 [Amazon A SageMaker I Clarify 和 MLOps 服务大规模实施法学硕士评估](https://aws.amazon.com/blogs/machine-learning/operationalize-llm-evaluation-at-scale-using-amazon-sagemaker-clarify-and-mlops-services/)（AWS 博客文章）
+ [矢量数据库在生成式人工智能应用中的作用](https://aws.amazon.com/blogs/database/the-role-of-vector-datastores-in-generative-ai-applications/)（AWS 博客文章）

**Azure 文档**
+ [Azure DevOps 文档](https://learn.microsoft.com/en-us/azure/devops/user-guide/what-is-azure-devops)
+ [Azure Pipelines 文档](https://learn.microsoft.com/en-us/azure/devops/pipelines/get-started/what-is-azure-pipelines)