콘텐츠 도메인 2: ML 모델 개발
작업 2.1: 모델링 접근 방식 선택
관련 지식:
비즈니스 문제 해결을 위한 ML 알고리즘의 기능 및 적절한 사용
특정 비즈니스 문제를 해결하기 위해 AWS 인공 지능 서비스를 사용하는 방법(예: Amazon Translate, Amazon Transcribe, Amazon Rekognition, Amazon Bedrock)
모델 선택 또는 알고리즘 선택 시 해석 가능성을 고려하는 방법
Amazon SageMaker AI 기본 제공 알고리즘 및 해당 알고리즘을 적용하는 상황
관련 기술:
사용 가능한 데이터와 문제 복잡도를 평가하여 ML 솔루션의 적합성 결정
특정 문제를 해결하기 위해 적절한 ML 모델 또는 알고리즘 비교 및 선택
기본 제공 알고리즘, 파운데이션 모델 및 솔루션 템플릿 선택(예: SageMaker JumpStart 및 Amazon Bedrock에서)
비용에 따라 모델 또는 알고리즘 선택
일반적인 비즈니스 요구 사항을 해결하기 위한 AI 서비스 선택
작업 2.2: 모델 훈련 및 개선
관련 지식:
훈련 프로세스의 요소(예: 에포크, 단계, 배치 크기)
모델 훈련 시간을 줄이는 방법(예: 조기 중지, 분산 훈련)
모델 크기에 영향을 미치는 요인
모델 성능을 개선하는 방법
정규화 기법의 이점(예: 드롭아웃, 가중치 감쇠, L1 및 L2)
하이퍼파라미터 튜닝 기법(예: 무작위 검색, 베이지안 최적화)
모델 하이퍼파라미터 및 모델 성능에 미치는 영향(예: 트리 기반 모델의 트리 수, 신경망의 계층 수)
SageMaker AI 외부에서 구축한 모델을 SageMaker AI로 통합하는 방법
관련 기술:
SageMaker AI 기본 제공 알고리즘과 공통 ML 라이브러리를 사용하여 ML 모델 개발
SageMaker AI 지원 프레임워크와 함께 SageMaker AI 스크립트 모드를 사용하여 모델 훈련(예: TensorFlow, PyTorch)
사용자 지정 데이터세트를 사용하여 사전 훈련된 모델 파인 튜닝(예: Amazon Bedrock, SageMaker JumpStart)
하이퍼파라미터 튜닝 수행(예: SageMaker AI 자동 모델 튜닝(AMT) 사용)
자동화된 하이퍼파라미터 최적화 기능 통합
모델 과적합, 과소적합 및 치명적인 망각 방지(예: 정규화 기법, 특성 선택 사용)
여러 훈련 모델을 결합하여 성능 향상(예: 앙상블, 스태킹, 부스팅)
모델 크기 축소(예: 데이터 유형 변경, 정리, 특성 선택 업데이트, 압축)
반복성 및 감사를 위한 모델 버전 관리(예: SageMaker Model Registry 사용)
작업 2.3: 모델 성능 분석
관련 지식:
모델 평가 기법 및 지표(예: 혼동 행렬, 히트 맵, F1 점수, 정확도, 정밀도, 리콜, 루트 평균 제곱 오차(RMSE), 수신기 작동 특성(ROC), ROC 곡선 아래 면적(AUC))
성능 기준선을 만드는 방법
모델 과적합 및 과소적합을 식별하는 방법
ML 훈련 데이터 및 모델에 대한 인사이트를 얻기 위해 SageMaker Clarify에서 사용할 수 있는 지표
수렴 문제
관련 기술:
평가 지표 선택 및 해석, 모델 편향성 감지
모델 성능, 훈련 시간, 비용 간의 절충점 평가
AWS 서비스를 사용하여 재현 가능한 실험 수행
섀도 변형의 성능을 프로덕션 변형의 성능과 비교
SageMaker Clarify를 사용하여 모델 출력 해석
SageMaker Model Debugger를 사용하여 모델 컨버전스 디버깅