기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
텍스트 분류 모델 선택 및 배포
비교를 위해 DistilBERT Base Cased와 BERT Base Uncased라는 두 가지 텍스트 분류 모델을 배포합니다. 이러한 모델의 차이점을 확인하고 최적의 인스턴스 구성을 사용하여 모델을 배포할 수 있습니다.
이 두 모델을 사용하는 이유
이러한 모델은 고객이 프로덕션 환경에서 성능과 비용 사이에서 선택해야 하는 일반적인 상황을 보여줍니다.
BERT Base Uncased: 더 크고 정확하지만 느리고 리소스 집약적입니다.
DistilBERT Base Cased: 더 작고 빠르며 비용 효과적이지만 정확도가 떨어질 수 있습니다.
이 비교를 통해 요구 사항에 적합한 모델을 선택할 수 있습니다.
카탈로그의 모델 이름 이해
카탈로그의 텍스트 분류 모델 이름에는 다음 구성 요소가 포함됩니다.
BERT: 트랜스포머의 양방향 인코더 표현
L-X_H-Y_A-Z: 다음과 같은 모델 구조:
L-X: 계층 수(X)
H-Y: 숨겨진 크기(Y)
A-Z: 관심 헤드 수(Z)
Small/Base/Large: 모델 크기 및 복잡성
Uncased/Cased - 대/소문자 구분 설정
예: Small BERT L-2_H-128_A-2s는 다음과 같은 소규모 BERT 모델을 나타냅니다.
계층 2개
숨겨진 유닛 128개
관심 헤드 2개
JumpStart 모델 카탈로그에 액세스
JumpStart 카탈로그의 텍스트 분류 모델로 이동합니다.
-
SageMaker AI Studio를 엽니다.
-
왼쪽 탐색 창에서 JumpStart를 선택합니다.
-
JumpStart 페이지에서 Hugging Face를 선택합니다.
-
텍스트 분류를 선택합니다.
카탈로그에는 DistilBERT 및 BERT 변형을 포함하여 사용 가능한 텍스트 분류 모델 목록이 표시됩니다.
DistilBERT Base Cased 배포
기본 구성을 사용하여 DistilBERT 모델을 배포합니다.
-
모델 목록에서 DistilBERT Base Cased(distilbert)를 찾아 선택합니다.
-
모델 세부 정보 페이지에서 기본 인스턴스 유형을 유지합니다.
-
다른 설정은 모두 기본값으로 유지하고 배포를 선택합니다.
-
배포가 완료될 때까지 5~10분 정도 기다립니다.
-
배포 성공을 확인하려면 배포, 엔드포인트로 이동합니다.
-
DistilBERT 엔드포인트에
InService상태가 표시되는지 확인합니다.
BERT Base Uncased 배포
DistilBERT와 비교하기 위해 BERT 모델을 배포합니다.
-
JumpStart의 Hugging Face 텍스트 분류 모델로 돌아갑니다.
-
BERT Base Uncased(google-bert)를 찾아 선택합니다.
-
기본 인스턴스 유형을 유지하고 배포를 선택합니다.
-
두 배포를 모두 확인하려면 두 엔드포인트 모두 엔드포인트 목록에
InService상태가 표시되는지 확인합니다.
두 모델 모두 엔드포인트 목록에 InService 상태로 표시됩니다.
중요
엔드포인트 이름을 복사하고 저장합니다. 평가 프로세스에 필요합니다.
문제 해결
배포 문제가 발생하는 경우:
인스턴스 유형 오류의 경우,
ml.m5.large와 같은 CPU 인스턴스가 아닌 기본 인스턴스 유형을 사용하고 있는지 확인합니다.모델을 찾을 수 없는 경우 괄호 안의 게시자를 포함하여 정확한 모델 이름을 사용하여 검색합니다.
실패한 배포의 경우 해당 리전의 서비스 상태를 확인하거나 다른 리전을 시도합니다.
모델에 InService 상태가 표시되면 배포된 모델을 평가하기 위해 모델 성능 평가 및 비교를 진행합니다.