기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
SageMaker AI 워크플로
기계 학습(ML) 작업 규모 조정 시 Amazon SageMaker AI 완전관리형 워크플로 서비스를 사용하여 ML 수명 주기에 대한 연속 통합 및 배포(CI/CD) 방식을 구현할 수 있습니다. Pipelines SDK를 사용하면 파이프라인 단계를 선택하고 통합 솔루션으로 통합하여 데이터 준비부터 모델 배포까지 모델 구축 프로세스를 자동화합니다. Kubernetes 기반 아키텍처의 경우, SageMaker AI Operators를 Kubernetes 클러스터에 설치하여 Kubernetes API 및 kubectl 등의 명령줄 Kubernetes 도구를 사용하여 기본적으로 SageMaker AI 작업을 생성할 수 있습니다. Kubeflow Pipelines용 SageMaker AI 구성 요소를 사용하여 Kubeflow 파이프라인에서 네이티브 SageMaker AI 작업을 생성하고 모니터링할 수 있습니다. SageMaker AI의 작업 파라미터, 상태 및 출력은 Kubeflow Pipelines UI에서 액세스할 수 있습니다. 마지막으로 배치 작업을 예약하려면 AWS Batch 작업 대기열 통합 또는 Jupyter 노트북 기반 워크플로 서비스를 사용하여 정의한 일정에 따라 독립 실행형 또는 정기 실행을 시작할 수 있습니다.
요약하면 SageMaker AI는 다음과 같은 워크플로 기술을 제공합니다.
-
파이프라인: ML 파이프라인을 구축하고 관리하기 위한 도구.
-
Kubernetes 오케스트레이션: Kubernetes 클러스터를 위한 SageMaker AI 사용자 지정 운영자와 Kubeflow Pipelines의 구성 요소
-
SageMaker 노트북: Jupyter notebook의 온디맨드 또는 예약된 비대화형 배치 실행.
SageMaker AI와 통합되는 다른 서비스를 활용하여 워크플로를 구축할 수도 있습니다. 옵션에는 다음 사항이 포함됩니다.
-
에어플로우 워크플로
: 에어플로우 워크플로를 생성 및 관리하기 위한 구성을 내보내기 위한 SageMaker API -
AWS Step Functions
: 리소스를 별도로 프로비저닝하지 않고도 SageMaker AI 인프라를 오케스트레이션하는 Python의 다단계 ML 워크플로 -
AWS Batch: 컴퓨팅 환경에서 실행되도록 작업의 우선 순위를 지정하고 예약할 수 있는 AWS Batch 작업 대기열에 SageMaker AI 훈련 작업을 제출합니다.
SageMaker 훈련 및 추론 관리에 대한 자세한 내용은 Amazon SageMaker Python SDK 워크플로