콘텐츠 도메인 2: ML 모델 개발 - AWS Certified Machine Learning Engineer

콘텐츠 도메인 2: ML 모델 개발

작업 2.1: 모델링 접근 방식 선택

관련 지식:

  • 비즈니스 문제 해결을 위한 ML 알고리즘의 기능 및 적절한 사용

  • 특정 비즈니스 문제를 해결하기 위해 AWS 인공 지능 서비스를 사용하는 방법(예: Amazon Translate, Amazon Transcribe, Amazon Rekognition, Amazon Bedrock)

  • 모델 선택 또는 알고리즘 선택 시 해석 가능성을 고려하는 방법

  • Amazon SageMaker AI 기본 제공 알고리즘 및 해당 알고리즘을 적용하는 상황

관련 기술:

  • 사용 가능한 데이터와 문제 복잡도를 평가하여 ML 솔루션의 적합성 결정

  • 특정 문제를 해결하기 위해 적절한 ML 모델 또는 알고리즘 비교 및 선택

  • 기본 제공 알고리즘, 파운데이션 모델 및 솔루션 템플릿 선택(예: SageMaker JumpStart 및 Amazon Bedrock에서)

  • 비용에 따라 모델 또는 알고리즘 선택

  • 일반적인 비즈니스 요구 사항을 해결하기 위한 AI 서비스 선택

작업 2.2: 모델 훈련 및 개선

관련 지식:

  • 훈련 프로세스의 요소(예: 에포크, 단계, 배치 크기)

  • 모델 훈련 시간을 줄이는 방법(예: 조기 중지, 분산 훈련)

  • 모델 크기에 영향을 미치는 요인

  • 모델 성능을 개선하는 방법

  • 정규화 기법의 이점(예: 드롭아웃, 가중치 감쇠, L1 및 L2)

  • 하이퍼파라미터 튜닝 기법(예: 무작위 검색, 베이지안 최적화)

  • 모델 하이퍼파라미터 및 모델 성능에 미치는 영향(예: 트리 기반 모델의 트리 수, 신경망의 계층 수)

  • SageMaker AI 외부에서 구축한 모델을 SageMaker AI로 통합하는 방법

관련 기술:

  • SageMaker AI 기본 제공 알고리즘과 공통 ML 라이브러리를 사용하여 ML 모델 개발

  • SageMaker AI 지원 프레임워크와 함께 SageMaker AI 스크립트 모드를 사용하여 모델 훈련(예: TensorFlow, PyTorch)

  • 사용자 지정 데이터세트를 사용하여 사전 훈련된 모델 파인 튜닝(예: Amazon Bedrock, SageMaker JumpStart)

  • 하이퍼파라미터 튜닝 수행(예: SageMaker AI 자동 모델 튜닝(AMT) 사용)

  • 자동화된 하이퍼파라미터 최적화 기능 통합

  • 모델 과적합, 과소적합 및 치명적인 망각 방지(예: 정규화 기법, 특성 선택 사용)

  • 여러 훈련 모델을 결합하여 성능 향상(예: 앙상블, 스태킹, 부스팅)

  • 모델 크기 축소(예: 데이터 유형 변경, 정리, 특성 선택 업데이트, 압축)

  • 반복성 및 감사를 위한 모델 버전 관리(예: SageMaker Model Registry 사용)

작업 2.3: 모델 성능 분석

관련 지식:

  • 모델 평가 기법 및 지표(예: 혼동 행렬, 히트 맵, F1 점수, 정확도, 정밀도, 리콜, 루트 평균 제곱 오차(RMSE), 수신기 작동 특성(ROC), ROC 곡선 아래 면적(AUC))

  • 성능 기준선을 만드는 방법

  • 모델 과적합 및 과소적합을 식별하는 방법

  • ML 훈련 데이터 및 모델에 대한 인사이트를 얻기 위해 SageMaker Clarify에서 사용할 수 있는 지표

  • 수렴 문제

관련 기술:

  • 평가 지표 선택 및 해석, 모델 편향성 감지

  • 모델 성능, 훈련 시간, 비용 간의 절충점 평가

  • AWS 서비스를 사용하여 재현 가능한 실험 수행

  • 섀도 변형의 성능을 프로덕션 변형의 성능과 비교

  • SageMaker Clarify를 사용하여 모델 출력 해석

  • SageMaker Model Debugger를 사용하여 모델 컨버전스 디버깅